[DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)

Deep Learning JP
Deep Learning JPDeep Learning JP
DEEP LEARNING JP
[DL Papers]
“xDeepFM: Combining Explict and Implicit Feature
Interactions for Recommendation (KDD2018)”
Yoshifumi Seki, Gunosy
http://deeplearning.jp/
書誌情報
● タイトル: xDeepFM: Combining Explict and Implicit Feature Interactions for
Recommendation
● 著者: Jianxum Lian*1, Xiaohuan Zhou*1, Fuzheng Zhang*2, Zhongxia Chen*1,
Xing Xie*2, Guangzhong Sun*1
○ *1 University of Science and Technology of China
○ *2 Microsoft Research
● 投稿先
○ KDD2018
● 選定理由
○ Factorization Machinesの深層学習周りでの発展に関心あり
○ Explict and Implicit Feature Interactionsというキーワードがよくわからなかったので。
2
今日の話
● Factorization Machines is 何?
● DeepなFactorization Machinesの現状確認
● 提案手法のコンセプト
● 提案手法
○ CIN
○ xDeepFM
● 実験とその結果
● まとめ
3
Factorization Machines(FM) [S. Rendle, ICDM2010]
● 変数の交互作用を表現した回帰モデル
○ 例えば「男性」かつ「10代」といった特徴に重みをもたせたい
○ すべての組み合わせを学習させようとすると死ぬ
○ そこで、交互作用の重みを内積で表現するようにした
● Kaggleの広告コンペのChampionモデルとして何度か使われたことで広く知られる
ようになった
● 一般にFMというとこの定義だが、これは厳密には2nd-order FMである
○ 2次の交互作用のみ扱っている
○ 高次の交互作用を扱うモデルも最近提案されている[Blondel+, NIPS2016]
■ 一方で3次程度までしか精度向上は確認できていない
■ ノイズの影響で高次ではきついと言われている[Xiao+, IJICAI2017] 4
DeepなFactorization Machines
● Categorical変数のEmbedding (bit-wiseなfactorization)
○ Factorization-machine suppoerted Neural Network (FNN) [Zhang+, ECIR2016]
○ Deep Crossing Network (DCN) [Shan+, KDD2016]
○ Wide & Deep [Cheng+, arXiv:1606.07792 (2016)]
● vector-wiseなfactorization
○ Product-based Neural Network (PNN) [Qu+, ICDM2017]
○ DeepFM [Guo+, IJICAI2017]
● explicitな高次元のinteraction
○ Deep Cross Network (DCN) [Wang+, ADKDD2017]
5
Factorization-machine suppoerted Neural Network (FNN) [Zhang+, ECIR2016]
● 特徴量がカテゴリカル変数のような形与えられた特に、各カテゴリごとにembedding
をおこなう
6
Deep Crossing Network (DCN) [Shan+, KDD2016]
● FNNとほぼ同じ。違いは上に積んでいるのがResNetであること。
● 一方で引用数はFNNのほうが多い。FNNは57, DCNは38
○ FNNがオープンデータで検証したのに対して、DCNはプライベートなデータで検証されていた。
7
Wide & Deep [Cheng+, arXiv:1606.07792 (2016)]
● Wide (線形モデル) とDeepなモデルをそのままくっつけてる
○ TensorFlowに実装が載っている
● Deepなモデルは低次の特徴を学習しにくいので、くっつけてあげる
● (私見) データ少ない入力とかでも効きそう
8
bit-wiseなfactorization
● これら3つのモデルは交互作用をDeep Learningのアーキテクチャが行ってくれてい
るとしている
○ 変数A × 変数Bというような形ではなく、Embeddingしたベクトルの各次元の重み付け和を積み上げて
いく形
○ embedding + concatなので、どの値がどの変数からきたものか考慮されていない
● embeddingしたbit単位で交互作用を計算するため、bit-wiseなfactorizationと呼ぶ
○ これに対して、変数の情報を保持するものをvector-wiseなfactorizationと呼ぶ
9
Product-based Neural Network (PNN) [Qu+, ICDM2017]
● 各特徴量をそれぞれembeddingした上で、単体で入力するものと、2次の組み合わ
せで入力するものにわけている
10
Product-based Neural Network (PNN) [Qu+, ICDM2017]
11
● IPNN: inner product
● OPNN: outer product
● PNN*: inner + outer
● 明示的に2次の交互作用をDNNに入力したほうが良い結果になっている
DeepFM [Guo+, IJICAI2017]
● PNNと違って、Factorizationの上にネットワークを積まない
● FactorizationはシンプルにFMの式と一緒(embed+backpropされるだけ)
● 別途でDNNを用意してつなげる (Wide & Deep)
12
DeepFM [Guo+, IJICAI2017]
● PNNよりWide & Deep的なアーキテクチャのほうが良い精度になってる
○ つまりFactorizationの上に積むより、積まないほうがよい?
● bit-wiseな学習とvector-wiseな学習の組み合わせが重要?
13
vector-wiseなfactorization
● vector-wise > bit-wiseという結果
● 一方でvector-wiseでも積んで高次にしてもあまりよくならない?
○ PNNよりFMをwide & deepにしたほうが良くなってるの辛い
● 高次にするときにどこで高次にしているのかが明確ではない
○ implicitなhigh-order interaction
○ これをexplicitなものにできないか?
14
Deep Cross Network (DCN) [Wang+, ADKDD2017]
● x0が各Layerに常にかかる => Attentionっぽさがある
● vectorizeはされていない 15
Deep Cross Network (DCN) [Wang+, ADKDD2017]
● DCN (表ではDC), FNN (表ではDNN)と比較して改善している
○ 論文でW&Dと比較するって書いてあるのに結果では比較してない
● 各層をx_0とのスカラー積で表現できる
○ Pros: Feature Interactionを効率的に学習できる
○ Cons: x_0とのスカラー積という特殊な形にしか使えない
● bit-wiseなinteractionしかしてない
16
提案手法のコンセプト
● vector-wiseでexplicitなhigh-order interactionを実現する
○ vector-wise と bit-wise、explicit と implicitは異なる特徴をもつので、組み合わせたい
○ 現状ないのは、explicitでvector-wiseな手法
● interactionが高次になっても、複雑性が指数的に増加しない
○ この発表では触れない
17
Compressed Interaction Network (CIN)
18RNNっぽさがある
Compressed Interaction Network (CIN)
19
● CNNと類似しているともいえる
○ X^kとX^0の外積のテンソルZ^k+1を画像と考えると、W^kがフィルター
○ テンソルをフィルターを使ってデータ圧縮しているともいえる
eXtreme Deep Factorization Machines (xDeepFM)
● Liner + CIN + DNNの組み合わせ
○ CIN: explicitな高次元インタラクション (vector-wise)
○ DNN: implicitな高次元インタラクション
20
Experiments
● 3つの課題を検証したい
○ (1) CINは高次元のインタラクションを学習できているか?
○ (2) implicitとexplicitの組み合わせは有効か?
○ (3) xDeepFMのパラメータはどのようにチューニングするか?
■ この発表では触れない
● データセット
○ Criteo
■ 公開データ
○ Dianping
■ 中国のレストランレビューサイト、著者らが収集
○ Bing News
■ 内部データ
21
Baselines
● Logistic Regression (LR)
● Factorization Machines (FM)
● DNN
● PNN
● Wide & Deep
● DCN
● DeepFM
22
● シングルモデルでの比較
● CINがほとんどでBest
○ 特にDianping, Bingで良い
● 特にBingでは5次の特徴で良い結
果になっている
高次の学習ができている
23
● すべてのデータで最高の精度
○ implicitとexplictを組み合わせることは大切
● ほとんどのネットワークのDeptは浅い
24
まとめ
● 高次なfeature interactionについてimplicitなものとexplicitなものを定義して、それを
組み合わせたxDeepFMを提案
● その中で高次でexplicitなfeature interactionを実現するためのCINを提案
● 実社会データセットでover performした
25
感想
● FMをこの機会にがっつり調べて勉強になった
○ これまで画像とかテキスト系の研究ばっかりみてたのでWide & Deepみたいなノリの話あんまり知ら
なくてそういうのもあるのかという気持ちになった
● Factorizationを明示的にやったほうがDeepでも良いのは意外
○ CNNは画像の近傍に重要な情報があるという事前知識をいれているし、RNNは語順が大事という知
識をいれている
○ カテゴリカルな変数は組み合わせが大事という情報をいれるのは十分に妥当性があるし、それで精度
があがるのは納得感がある
● もしデータと計算資源が無限にあればシンプルなDNNのほうが強くなったりするんだ
ろうか
26
1 of 26

Recommended

semantic segmentation サーベイ by
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイyohei okawa
4.8K views34 slides
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De... by
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...Deep Learning JP
9K views26 slides
機械学習と自動微分 by
機械学習と自動微分機械学習と自動微分
機械学習と自動微分Ichigaku Takigawa
1.9K views107 slides
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks by
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph NetworksDeep Learning JP
1.2K views23 slides
【メタサーベイ】Vision and Language のトップ研究室/研究者 by
【メタサーベイ】Vision and Language のトップ研究室/研究者【メタサーベイ】Vision and Language のトップ研究室/研究者
【メタサーベイ】Vision and Language のトップ研究室/研究者cvpaper. challenge
1.8K views154 slides
実装レベルで学ぶVQVAE by
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAEぱんいち すみもと
12.6K views23 slides

More Related Content

What's hot

近年のHierarchical Vision Transformer by
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K views46 slides
全力解説!Transformer by
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
9.6K views43 slides
機械学習モデルのハイパパラメータ最適化 by
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化gree_tech
27.9K views117 slides
[DL輪読会]ICLR2020の分布外検知速報 by
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
5.4K views12 slides
[DLHacks]StyleGANとBigGANのStyle mixing, morphing by
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphingDeep Learning JP
14.2K views82 slides
機械学習モデルの判断根拠の説明(Ver.2) by
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
47.9K views81 slides

What's hot(20)

近年のHierarchical Vision Transformer by Yusuke Uchida
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida13.9K views
全力解説!Transformer by Arithmer Inc.
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
Arithmer Inc.9.6K views
機械学習モデルのハイパパラメータ最適化 by gree_tech
機械学習モデルのハイパパラメータ最適化機械学習モデルのハイパパラメータ最適化
機械学習モデルのハイパパラメータ最適化
gree_tech27.9K views
[DL輪読会]ICLR2020の分布外検知速報 by Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP5.4K views
[DLHacks]StyleGANとBigGANのStyle mixing, morphing by Deep Learning JP
[DLHacks]StyleGANとBigGANのStyle mixing, morphing[DLHacks]StyleGANとBigGANのStyle mixing, morphing
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP14.2K views
機械学習モデルの判断根拠の説明(Ver.2) by Satoshi Hara
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara47.9K views
グラフニューラルネットワーク入門 by ryosuke-kojima
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima51.4K views
[DL輪読会]Deep Learning based Recommender System: A Survey and New Perspectives by Deep Learning JP
[DL輪読会]Deep Learning based Recommender System: A Survey and New Perspectives[DL輪読会]Deep Learning based Recommender System: A Survey and New Perspectives
[DL輪読会]Deep Learning based Recommender System: A Survey and New Perspectives
Deep Learning JP1.1K views
【メタサーベイ】基盤モデル / Foundation Models by cvpaper. challenge
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge16.5K views
深層学習の数理 by Taiji Suzuki
深層学習の数理深層学習の数理
深層学習の数理
Taiji Suzuki79.7K views
[DL輪読会]Deep Learning 第15章 表現学習 by Deep Learning JP
[DL輪読会]Deep Learning 第15章 表現学習[DL輪読会]Deep Learning 第15章 表現学習
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP9.7K views
[DL輪読会]ドメイン転移と不変表現に関するサーベイ by Deep Learning JP
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP6.9K views
クラシックな機械学習の入門 4. 学習データと予測性能 by Hiroshi Nakagawa
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa8.8K views
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor... by Deep Learning JP
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
Deep Learning JP493 views
Neural networks for Graph Data NeurIPS2018読み会@PFN by emakryo
Neural networks for Graph Data NeurIPS2018読み会@PFNNeural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo11.8K views
[DL輪読会]Flow-based Deep Generative Models by Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP14.6K views
モデルアーキテクチャ観点からのDeep Neural Network高速化 by Yusuke Uchida
モデルアーキテクチャ観点からのDeep Neural Network高速化モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida38.7K views
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜 by SSII
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII3.7K views
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ... by Deep Learning JP
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning   画像×言語の大規模基盤モ...
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
Deep Learning JP3.2K views
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022) by Deep Learning JP
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
Deep Learning JP771 views

Similar to [DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)

DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare by
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也harePreferred Networks
2.1K views55 slides
SakataMoriLab GNN勉強会第一回資料 by
SakataMoriLab GNN勉強会第一回資料SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料ttt_miura
392 views38 slides
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta... by
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...Deep Learning JP
427 views21 slides
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm... by
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...Deep Learning JP
365 views44 slides
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み by
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試みtomitomi3 tomitomi3
543 views24 slides
組込向けDeep Learning最新技術の紹介 量子化テクニックとDorefaNetについて by
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
組込向けDeep Learning最新技術の紹介 量子化テクニックとDorefaNetについてNatsutani Minoru
6.8K views32 slides

Similar to [DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)(16)

DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare by Preferred Networks
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hareDAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks2.1K views
SakataMoriLab GNN勉強会第一回資料 by ttt_miura
SakataMoriLab GNN勉強会第一回資料SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料
ttt_miura392 views
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta... by Deep Learning JP
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware  Panoptic Segmenta...
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...
Deep Learning JP427 views
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm... by Deep Learning JP
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...
Deep Learning JP365 views
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み by tomitomi3 tomitomi3
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み
組込向けDeep Learning最新技術の紹介 量子化テクニックとDorefaNetについて by Natsutani Minoru
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
組込向けDeep Learning最新技術の紹介 量子化テクニックとDorefaNetについて
Natsutani Minoru6.8K views
FPGAX2016 ドキュンなFPGA by Hiroki Nakahara
FPGAX2016 ドキュンなFPGAFPGAX2016 ドキュンなFPGA
FPGAX2016 ドキュンなFPGA
Hiroki Nakahara6.3K views
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ... by KenzoOkuda
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
KenzoOkuda212 views
デバイスコネクト対応機の弊社確認結果とご相談 by Device WebAPI Consortium
デバイスコネクト対応機の弊社確認結果とご相談デバイスコネクト対応機の弊社確認結果とご相談
デバイスコネクト対応機の弊社確認結果とご相談
Deep Learning技術の最近の動向とPreferred Networksの取り組み by Kenta Oono
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Kenta Oono28.1K views
Deep learningの概要とドメインモデルの変遷 by Taiga Nomi
Deep learningの概要とドメインモデルの変遷Deep learningの概要とドメインモデルの変遷
Deep learningの概要とドメインモデルの変遷
Taiga Nomi26.5K views
Convolutional Neural Network @ CV勉強会関東 by Hokuto Kagaya
Convolutional Neural Network @ CV勉強会関東Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya18.4K views
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin... by Deep Learning JP
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP3.7K views
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks by Yosuke Shinya
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
Yosuke Shinya7.3K views
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介 by Preferred Networks
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
Preferred Networks6.4K views

More from Deep Learning JP

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners by
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving PlannersDeep Learning JP
261 views28 slides
【DL輪読会】事前学習用データセットについて by
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについてDeep Learning JP
275 views20 slides
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP... by
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...Deep Learning JP
186 views26 slides
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition by
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place RecognitionDeep Learning JP
255 views30 slides
【DL輪読会】Can Neural Network Memorization Be Localized? by
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?Deep Learning JP
516 views15 slides
【DL輪読会】Hopfield network 関連研究について by
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究についてDeep Learning JP
1.3K views29 slides

More from Deep Learning JP(20)

【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners by Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP261 views
【DL輪読会】事前学習用データセットについて by Deep Learning JP
【DL輪読会】事前学習用データセットについて【DL輪読会】事前学習用データセットについて
【DL輪読会】事前学習用データセットについて
Deep Learning JP275 views
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP... by Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP186 views
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition by Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP255 views
【DL輪読会】Can Neural Network Memorization Be Localized? by Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?【DL輪読会】Can Neural Network Memorization Be Localized?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP516 views
【DL輪読会】Hopfield network 関連研究について by Deep Learning JP
【DL輪読会】Hopfield network 関連研究について【DL輪読会】Hopfield network 関連研究について
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP1.3K views
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 ) by Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP341 views
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M... by Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP234 views
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO" by Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP798 views
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination " by Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "【DL輪読会】"Language Instructed Reinforcement Learning  for Human-AI Coordination "
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP448 views
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models by Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP1.4K views
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware" by Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP416 views
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo... by Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP406 views
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ... by Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP691 views
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive... by Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP818 views
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil... by Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP378 views
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait... by Deep Learning JP
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP330 views
【DL輪読会】マルチモーダル 基盤モデル by Deep Learning JP
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP1.1K views
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine... by Deep Learning JP
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
Deep Learning JP748 views
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif... by Deep Learning JP
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
Deep Learning JP248 views

Recently uploaded

今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...NTT DATA Technology & Innovation
151 views42 slides
SNMPセキュリティ超入門 by
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門mkoda
453 views15 slides
光コラボは契約してはいけない by
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけないTakuya Matsunaga
25 views17 slides
SSH応用編_20231129.pdf by
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdficebreaker4
380 views13 slides
定例会スライド_キャチs 公開用.pdf by
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdfKeio Robotics Association
132 views64 slides

Recently uploaded(12)

今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
SNMPセキュリティ超入門 by mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda453 views
光コラボは契約してはいけない by Takuya Matsunaga
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけない
Takuya Matsunaga25 views
SSH応用編_20231129.pdf by icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4380 views
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 by PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
Windows 11 information that can be used at the development site by Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka90 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
The Things Stack説明資料 by The Things Industries by CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.76 views
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 by PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」

[DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)

  • 1. DEEP LEARNING JP [DL Papers] “xDeepFM: Combining Explict and Implicit Feature Interactions for Recommendation (KDD2018)” Yoshifumi Seki, Gunosy http://deeplearning.jp/
  • 2. 書誌情報 ● タイトル: xDeepFM: Combining Explict and Implicit Feature Interactions for Recommendation ● 著者: Jianxum Lian*1, Xiaohuan Zhou*1, Fuzheng Zhang*2, Zhongxia Chen*1, Xing Xie*2, Guangzhong Sun*1 ○ *1 University of Science and Technology of China ○ *2 Microsoft Research ● 投稿先 ○ KDD2018 ● 選定理由 ○ Factorization Machinesの深層学習周りでの発展に関心あり ○ Explict and Implicit Feature Interactionsというキーワードがよくわからなかったので。 2
  • 3. 今日の話 ● Factorization Machines is 何? ● DeepなFactorization Machinesの現状確認 ● 提案手法のコンセプト ● 提案手法 ○ CIN ○ xDeepFM ● 実験とその結果 ● まとめ 3
  • 4. Factorization Machines(FM) [S. Rendle, ICDM2010] ● 変数の交互作用を表現した回帰モデル ○ 例えば「男性」かつ「10代」といった特徴に重みをもたせたい ○ すべての組み合わせを学習させようとすると死ぬ ○ そこで、交互作用の重みを内積で表現するようにした ● Kaggleの広告コンペのChampionモデルとして何度か使われたことで広く知られる ようになった ● 一般にFMというとこの定義だが、これは厳密には2nd-order FMである ○ 2次の交互作用のみ扱っている ○ 高次の交互作用を扱うモデルも最近提案されている[Blondel+, NIPS2016] ■ 一方で3次程度までしか精度向上は確認できていない ■ ノイズの影響で高次ではきついと言われている[Xiao+, IJICAI2017] 4
  • 5. DeepなFactorization Machines ● Categorical変数のEmbedding (bit-wiseなfactorization) ○ Factorization-machine suppoerted Neural Network (FNN) [Zhang+, ECIR2016] ○ Deep Crossing Network (DCN) [Shan+, KDD2016] ○ Wide & Deep [Cheng+, arXiv:1606.07792 (2016)] ● vector-wiseなfactorization ○ Product-based Neural Network (PNN) [Qu+, ICDM2017] ○ DeepFM [Guo+, IJICAI2017] ● explicitな高次元のinteraction ○ Deep Cross Network (DCN) [Wang+, ADKDD2017] 5
  • 6. Factorization-machine suppoerted Neural Network (FNN) [Zhang+, ECIR2016] ● 特徴量がカテゴリカル変数のような形与えられた特に、各カテゴリごとにembedding をおこなう 6
  • 7. Deep Crossing Network (DCN) [Shan+, KDD2016] ● FNNとほぼ同じ。違いは上に積んでいるのがResNetであること。 ● 一方で引用数はFNNのほうが多い。FNNは57, DCNは38 ○ FNNがオープンデータで検証したのに対して、DCNはプライベートなデータで検証されていた。 7
  • 8. Wide & Deep [Cheng+, arXiv:1606.07792 (2016)] ● Wide (線形モデル) とDeepなモデルをそのままくっつけてる ○ TensorFlowに実装が載っている ● Deepなモデルは低次の特徴を学習しにくいので、くっつけてあげる ● (私見) データ少ない入力とかでも効きそう 8
  • 9. bit-wiseなfactorization ● これら3つのモデルは交互作用をDeep Learningのアーキテクチャが行ってくれてい るとしている ○ 変数A × 変数Bというような形ではなく、Embeddingしたベクトルの各次元の重み付け和を積み上げて いく形 ○ embedding + concatなので、どの値がどの変数からきたものか考慮されていない ● embeddingしたbit単位で交互作用を計算するため、bit-wiseなfactorizationと呼ぶ ○ これに対して、変数の情報を保持するものをvector-wiseなfactorizationと呼ぶ 9
  • 10. Product-based Neural Network (PNN) [Qu+, ICDM2017] ● 各特徴量をそれぞれembeddingした上で、単体で入力するものと、2次の組み合わ せで入力するものにわけている 10
  • 11. Product-based Neural Network (PNN) [Qu+, ICDM2017] 11 ● IPNN: inner product ● OPNN: outer product ● PNN*: inner + outer ● 明示的に2次の交互作用をDNNに入力したほうが良い結果になっている
  • 12. DeepFM [Guo+, IJICAI2017] ● PNNと違って、Factorizationの上にネットワークを積まない ● FactorizationはシンプルにFMの式と一緒(embed+backpropされるだけ) ● 別途でDNNを用意してつなげる (Wide & Deep) 12
  • 13. DeepFM [Guo+, IJICAI2017] ● PNNよりWide & Deep的なアーキテクチャのほうが良い精度になってる ○ つまりFactorizationの上に積むより、積まないほうがよい? ● bit-wiseな学習とvector-wiseな学習の組み合わせが重要? 13
  • 14. vector-wiseなfactorization ● vector-wise > bit-wiseという結果 ● 一方でvector-wiseでも積んで高次にしてもあまりよくならない? ○ PNNよりFMをwide & deepにしたほうが良くなってるの辛い ● 高次にするときにどこで高次にしているのかが明確ではない ○ implicitなhigh-order interaction ○ これをexplicitなものにできないか? 14
  • 15. Deep Cross Network (DCN) [Wang+, ADKDD2017] ● x0が各Layerに常にかかる => Attentionっぽさがある ● vectorizeはされていない 15
  • 16. Deep Cross Network (DCN) [Wang+, ADKDD2017] ● DCN (表ではDC), FNN (表ではDNN)と比較して改善している ○ 論文でW&Dと比較するって書いてあるのに結果では比較してない ● 各層をx_0とのスカラー積で表現できる ○ Pros: Feature Interactionを効率的に学習できる ○ Cons: x_0とのスカラー積という特殊な形にしか使えない ● bit-wiseなinteractionしかしてない 16
  • 17. 提案手法のコンセプト ● vector-wiseでexplicitなhigh-order interactionを実現する ○ vector-wise と bit-wise、explicit と implicitは異なる特徴をもつので、組み合わせたい ○ 現状ないのは、explicitでvector-wiseな手法 ● interactionが高次になっても、複雑性が指数的に増加しない ○ この発表では触れない 17
  • 18. Compressed Interaction Network (CIN) 18RNNっぽさがある
  • 19. Compressed Interaction Network (CIN) 19 ● CNNと類似しているともいえる ○ X^kとX^0の外積のテンソルZ^k+1を画像と考えると、W^kがフィルター ○ テンソルをフィルターを使ってデータ圧縮しているともいえる
  • 20. eXtreme Deep Factorization Machines (xDeepFM) ● Liner + CIN + DNNの組み合わせ ○ CIN: explicitな高次元インタラクション (vector-wise) ○ DNN: implicitな高次元インタラクション 20
  • 21. Experiments ● 3つの課題を検証したい ○ (1) CINは高次元のインタラクションを学習できているか? ○ (2) implicitとexplicitの組み合わせは有効か? ○ (3) xDeepFMのパラメータはどのようにチューニングするか? ■ この発表では触れない ● データセット ○ Criteo ■ 公開データ ○ Dianping ■ 中国のレストランレビューサイト、著者らが収集 ○ Bing News ■ 内部データ 21
  • 22. Baselines ● Logistic Regression (LR) ● Factorization Machines (FM) ● DNN ● PNN ● Wide & Deep ● DCN ● DeepFM 22
  • 23. ● シングルモデルでの比較 ● CINがほとんどでBest ○ 特にDianping, Bingで良い ● 特にBingでは5次の特徴で良い結 果になっている 高次の学習ができている 23
  • 25. まとめ ● 高次なfeature interactionについてimplicitなものとexplicitなものを定義して、それを 組み合わせたxDeepFMを提案 ● その中で高次でexplicitなfeature interactionを実現するためのCINを提案 ● 実社会データセットでover performした 25
  • 26. 感想 ● FMをこの機会にがっつり調べて勉強になった ○ これまで画像とかテキスト系の研究ばっかりみてたのでWide & Deepみたいなノリの話あんまり知ら なくてそういうのもあるのかという気持ちになった ● Factorizationを明示的にやったほうがDeepでも良いのは意外 ○ CNNは画像の近傍に重要な情報があるという事前知識をいれているし、RNNは語順が大事という知 識をいれている ○ カテゴリカルな変数は組み合わせが大事という情報をいれるのは十分に妥当性があるし、それで精度 があがるのは納得感がある ● もしデータと計算資源が無限にあればシンプルなDNNのほうが強くなったりするんだ ろうか 26