SlideShare a Scribd company logo
Submit Search
Upload
[DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)
Report
Share
Deep Learning JP
Deep Learning JP
Follow
•
6 likes
•
2,791 views
1
of
26
[DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)
•
6 likes
•
2,791 views
Report
Share
Download Now
Download to read offline
Technology
2018/12/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
Read more
Deep Learning JP
Deep Learning JP
Follow
Recommended
semantic segmentation サーベイ by
semantic segmentation サーベイ
yohei okawa
4.8K views
•
34 slides
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De... by
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
9K views
•
26 slides
機械学習と自動微分 by
機械学習と自動微分
Ichigaku Takigawa
1.9K views
•
107 slides
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks by
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
Deep Learning JP
1.2K views
•
23 slides
【メタサーベイ】Vision and Language のトップ研究室/研究者 by
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
1.8K views
•
154 slides
実装レベルで学ぶVQVAE by
実装レベルで学ぶVQVAE
ぱんいち すみもと
12.6K views
•
23 slides
More Related Content
What's hot
近年のHierarchical Vision Transformer by
近年のHierarchical Vision Transformer
Yusuke Uchida
13.9K views
•
46 slides
全力解説!Transformer by
全力解説!Transformer
Arithmer Inc.
9.6K views
•
43 slides
機械学習モデルのハイパパラメータ最適化 by
機械学習モデルのハイパパラメータ最適化
gree_tech
27.9K views
•
117 slides
[DL輪読会]ICLR2020の分布外検知速報 by
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
5.4K views
•
12 slides
[DLHacks]StyleGANとBigGANのStyle mixing, morphing by
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
14.2K views
•
82 slides
機械学習モデルの判断根拠の説明(Ver.2) by
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
47.9K views
•
81 slides
What's hot
(20)
近年のHierarchical Vision Transformer by Yusuke Uchida
近年のHierarchical Vision Transformer
Yusuke Uchida
•
13.9K views
全力解説!Transformer by Arithmer Inc.
全力解説!Transformer
Arithmer Inc.
•
9.6K views
機械学習モデルのハイパパラメータ最適化 by gree_tech
機械学習モデルのハイパパラメータ最適化
gree_tech
•
27.9K views
[DL輪読会]ICLR2020の分布外検知速報 by Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP
•
5.4K views
[DLHacks]StyleGANとBigGANのStyle mixing, morphing by Deep Learning JP
[DLHacks]StyleGANとBigGANのStyle mixing, morphing
Deep Learning JP
•
14.2K views
機械学習モデルの判断根拠の説明(Ver.2) by Satoshi Hara
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
•
47.9K views
グラフニューラルネットワーク入門 by ryosuke-kojima
グラフニューラルネットワーク入門
ryosuke-kojima
•
51.4K views
[DL輪読会]Deep Learning based Recommender System: A Survey and New Perspectives by Deep Learning JP
[DL輪読会]Deep Learning based Recommender System: A Survey and New Perspectives
Deep Learning JP
•
1.1K views
【メタサーベイ】基盤モデル / Foundation Models by cvpaper. challenge
【メタサーベイ】基盤モデル / Foundation Models
cvpaper. challenge
•
16.5K views
深層学習の数理 by Taiji Suzuki
深層学習の数理
Taiji Suzuki
•
79.7K views
[DL輪読会]Deep Learning 第15章 表現学習 by Deep Learning JP
[DL輪読会]Deep Learning 第15章 表現学習
Deep Learning JP
•
9.7K views
[DL輪読会]ドメイン転移と不変表現に関するサーベイ by Deep Learning JP
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
•
6.9K views
クラシックな機械学習の入門 4. 学習データと予測性能 by Hiroshi Nakagawa
クラシックな機械学習の入門 4. 学習データと予測性能
Hiroshi Nakagawa
•
8.8K views
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor... by Deep Learning JP
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
Deep Learning JP
•
493 views
Neural networks for Graph Data NeurIPS2018読み会@PFN by emakryo
Neural networks for Graph Data NeurIPS2018読み会@PFN
emakryo
•
11.8K views
[DL輪読会]Flow-based Deep Generative Models by Deep Learning JP
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
•
14.6K views
モデルアーキテクチャ観点からのDeep Neural Network高速化 by Yusuke Uchida
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
•
38.7K views
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜 by SSII
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
•
3.7K views
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ... by Deep Learning JP
【DL輪読会】Flamingo: a Visual Language Model for Few-Shot Learning 画像×言語の大規模基盤モ...
Deep Learning JP
•
3.2K views
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022) by Deep Learning JP
【DL輪読会】GAN-Supervised Dense Visual Alignment (CVPR 2022)
Deep Learning JP
•
771 views
Similar to [DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare by
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks
2.1K views
•
55 slides
SakataMoriLab GNN勉強会第一回資料 by
SakataMoriLab GNN勉強会第一回資料
ttt_miura
392 views
•
38 slides
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta... by
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...
Deep Learning JP
427 views
•
21 slides
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm... by
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...
Deep Learning JP
365 views
•
44 slides
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み by
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み
tomitomi3 tomitomi3
543 views
•
24 slides
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて by
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
Natsutani Minoru
6.8K views
•
32 slides
Similar to [DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)
(16)
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare by Preferred Networks
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks
•
2.1K views
SakataMoriLab GNN勉強会第一回資料 by ttt_miura
SakataMoriLab GNN勉強会第一回資料
ttt_miura
•
392 views
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta... by Deep Learning JP
【DL輪読会】“PanopticDepth: A Unified Framework for Depth-aware Panoptic Segmenta...
Deep Learning JP
•
427 views
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm... by Deep Learning JP
[DL輪読会]Feature Interaction Interpretability: A Case for Explanining Ad-Recomm...
Deep Learning JP
•
365 views
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み by tomitomi3 tomitomi3
第14回 KAIM M5StickV(K210)をDNNアクセラレータとして使おうとした試み
tomitomi3 tomitomi3
•
543 views
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて by Natsutani Minoru
組込向けDeep Learning最新技術の紹介量子化テクニックとDorefaNetについて
Natsutani Minoru
•
6.8K views
FPGAX2016 ドキュンなFPGA by Hiroki Nakahara
FPGAX2016 ドキュンなFPGA
Hiroki Nakahara
•
6.3K views
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ... by KenzoOkuda
キャリア網の完全なソフトウェア制御化への取り組み (沖縄オープンデイズ 2017) / Telecommunication Infrastructure ...
KenzoOkuda
•
212 views
デバイスコネクト対応機の弊社確認結果とご相談 by Device WebAPI Consortium
デバイスコネクト対応機の弊社確認結果とご相談
Device WebAPI Consortium
•
1.4K views
Fpgax20180217 by Natsutani Minoru
Fpgax20180217
Natsutani Minoru
•
2.7K views
Deep Learning技術の最近の動向とPreferred Networksの取り組み by Kenta Oono
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Kenta Oono
•
28.1K views
Deep learningの概要とドメインモデルの変遷 by Taiga Nomi
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
•
26.5K views
Convolutional Neural Network @ CV勉強会関東 by Hokuto Kagaya
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya
•
18.4K views
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin... by Deep Learning JP
[DL輪読会]Imagination-Augmented Agents for Deep Reinforcement Learning / Learnin...
Deep Learning JP
•
3.7K views
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks by Yosuke Shinya
【宝くじ仮説】The Lottery Ticket Hypothesis: Finding Small, Trainable Neural Networks
Yosuke Shinya
•
7.3K views
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介 by Preferred Networks
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
Preferred Networks
•
6.4K views
More from Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners by
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
261 views
•
28 slides
【DL輪読会】事前学習用データセットについて by
【DL輪読会】事前学習用データセットについて
Deep Learning JP
275 views
•
20 slides
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP... by
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
186 views
•
26 slides
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition by
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
255 views
•
30 slides
【DL輪読会】Can Neural Network Memorization Be Localized? by
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
516 views
•
15 slides
【DL輪読会】Hopfield network 関連研究について by
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
1.3K views
•
29 slides
More from Deep Learning JP
(20)
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners by Deep Learning JP
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
•
261 views
【DL輪読会】事前学習用データセットについて by Deep Learning JP
【DL輪読会】事前学習用データセットについて
Deep Learning JP
•
275 views
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP... by Deep Learning JP
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
•
186 views
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition by Deep Learning JP
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
•
255 views
【DL輪読会】Can Neural Network Memorization Be Localized? by Deep Learning JP
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
•
516 views
【DL輪読会】Hopfield network 関連研究について by Deep Learning JP
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
•
1.3K views
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 ) by Deep Learning JP
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
•
341 views
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M... by Deep Learning JP
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
•
234 views
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO" by Deep Learning JP
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
•
798 views
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination " by Deep Learning JP
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
•
448 views
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models by Deep Learning JP
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
•
1.4K views
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware" by Deep Learning JP
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
•
416 views
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo... by Deep Learning JP
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
•
406 views
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ... by Deep Learning JP
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
•
691 views
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive... by Deep Learning JP
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
•
818 views
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil... by Deep Learning JP
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
•
378 views
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait... by Deep Learning JP
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
•
330 views
【DL輪読会】マルチモーダル 基盤モデル by Deep Learning JP
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP
•
1.1K views
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine... by Deep Learning JP
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
Deep Learning JP
•
748 views
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif... by Deep Learning JP
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
Deep Learning JP
•
248 views
Recently uploaded
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
NTT DATA Technology & Innovation
151 views
•
42 slides
SNMPセキュリティ超入門 by
SNMPセキュリティ超入門
mkoda
453 views
•
15 slides
IPsec VPNとSSL-VPNの違い by
IPsec VPNとSSL-VPNの違い
富士通クラウドテクノロジーズ株式会社
543 views
•
8 slides
光コラボは契約してはいけない by
光コラボは契約してはいけない
Takuya Matsunaga
25 views
•
17 slides
SSH応用編_20231129.pdf by
SSH応用編_20231129.pdf
icebreaker4
380 views
•
13 slides
定例会スライド_キャチs 公開用.pdf by
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association
132 views
•
64 slides
Recently uploaded
(12)
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
NTT DATA Technology & Innovation
•
151 views
SNMPセキュリティ超入門 by mkoda
SNMPセキュリティ超入門
mkoda
•
453 views
IPsec VPNとSSL-VPNの違い by 富士通クラウドテクノロジーズ株式会社
IPsec VPNとSSL-VPNの違い
富士通クラウドテクノロジーズ株式会社
•
543 views
光コラボは契約してはいけない by Takuya Matsunaga
光コラボは契約してはいけない
Takuya Matsunaga
•
25 views
SSH応用編_20231129.pdf by icebreaker4
SSH応用編_20231129.pdf
icebreaker4
•
380 views
定例会スライド_キャチs 公開用.pdf by Keio Robotics Association
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association
•
132 views
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 by PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium
•
45 views
Windows 11 information that can be used at the development site by Atomu Hidaka
Windows 11 information that can be used at the development site
Atomu Hidaka
•
90 views
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 by Hitachi, Ltd. OSS Solution Center.
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Hitachi, Ltd. OSS Solution Center.
•
89 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
NTT DATA Technology & Innovation
•
29 views
The Things Stack説明資料 by The Things Industries by CRI Japan, Inc.
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.
•
76 views
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 by PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium
•
23 views
[DL輪読会]xDeepFM: Combining Explicit and Implicit Feature Interactions for Recommender Systems(KDD2018)
1.
DEEP LEARNING JP [DL
Papers] “xDeepFM: Combining Explict and Implicit Feature Interactions for Recommendation (KDD2018)” Yoshifumi Seki, Gunosy http://deeplearning.jp/
2.
書誌情報 ● タイトル: xDeepFM:
Combining Explict and Implicit Feature Interactions for Recommendation ● 著者: Jianxum Lian*1, Xiaohuan Zhou*1, Fuzheng Zhang*2, Zhongxia Chen*1, Xing Xie*2, Guangzhong Sun*1 ○ *1 University of Science and Technology of China ○ *2 Microsoft Research ● 投稿先 ○ KDD2018 ● 選定理由 ○ Factorization Machinesの深層学習周りでの発展に関心あり ○ Explict and Implicit Feature Interactionsというキーワードがよくわからなかったので。 2
3.
今日の話 ● Factorization Machines
is 何? ● DeepなFactorization Machinesの現状確認 ● 提案手法のコンセプト ● 提案手法 ○ CIN ○ xDeepFM ● 実験とその結果 ● まとめ 3
4.
Factorization Machines(FM) [S.
Rendle, ICDM2010] ● 変数の交互作用を表現した回帰モデル ○ 例えば「男性」かつ「10代」といった特徴に重みをもたせたい ○ すべての組み合わせを学習させようとすると死ぬ ○ そこで、交互作用の重みを内積で表現するようにした ● Kaggleの広告コンペのChampionモデルとして何度か使われたことで広く知られる ようになった ● 一般にFMというとこの定義だが、これは厳密には2nd-order FMである ○ 2次の交互作用のみ扱っている ○ 高次の交互作用を扱うモデルも最近提案されている[Blondel+, NIPS2016] ■ 一方で3次程度までしか精度向上は確認できていない ■ ノイズの影響で高次ではきついと言われている[Xiao+, IJICAI2017] 4
5.
DeepなFactorization Machines ● Categorical変数のEmbedding
(bit-wiseなfactorization) ○ Factorization-machine suppoerted Neural Network (FNN) [Zhang+, ECIR2016] ○ Deep Crossing Network (DCN) [Shan+, KDD2016] ○ Wide & Deep [Cheng+, arXiv:1606.07792 (2016)] ● vector-wiseなfactorization ○ Product-based Neural Network (PNN) [Qu+, ICDM2017] ○ DeepFM [Guo+, IJICAI2017] ● explicitな高次元のinteraction ○ Deep Cross Network (DCN) [Wang+, ADKDD2017] 5
6.
Factorization-machine suppoerted Neural
Network (FNN) [Zhang+, ECIR2016] ● 特徴量がカテゴリカル変数のような形与えられた特に、各カテゴリごとにembedding をおこなう 6
7.
Deep Crossing Network
(DCN) [Shan+, KDD2016] ● FNNとほぼ同じ。違いは上に積んでいるのがResNetであること。 ● 一方で引用数はFNNのほうが多い。FNNは57, DCNは38 ○ FNNがオープンデータで検証したのに対して、DCNはプライベートなデータで検証されていた。 7
8.
Wide & Deep
[Cheng+, arXiv:1606.07792 (2016)] ● Wide (線形モデル) とDeepなモデルをそのままくっつけてる ○ TensorFlowに実装が載っている ● Deepなモデルは低次の特徴を学習しにくいので、くっつけてあげる ● (私見) データ少ない入力とかでも効きそう 8
9.
bit-wiseなfactorization ● これら3つのモデルは交互作用をDeep Learningのアーキテクチャが行ってくれてい るとしている ○
変数A × 変数Bというような形ではなく、Embeddingしたベクトルの各次元の重み付け和を積み上げて いく形 ○ embedding + concatなので、どの値がどの変数からきたものか考慮されていない ● embeddingしたbit単位で交互作用を計算するため、bit-wiseなfactorizationと呼ぶ ○ これに対して、変数の情報を保持するものをvector-wiseなfactorizationと呼ぶ 9
10.
Product-based Neural Network
(PNN) [Qu+, ICDM2017] ● 各特徴量をそれぞれembeddingした上で、単体で入力するものと、2次の組み合わ せで入力するものにわけている 10
11.
Product-based Neural Network
(PNN) [Qu+, ICDM2017] 11 ● IPNN: inner product ● OPNN: outer product ● PNN*: inner + outer ● 明示的に2次の交互作用をDNNに入力したほうが良い結果になっている
12.
DeepFM [Guo+, IJICAI2017] ●
PNNと違って、Factorizationの上にネットワークを積まない ● FactorizationはシンプルにFMの式と一緒(embed+backpropされるだけ) ● 別途でDNNを用意してつなげる (Wide & Deep) 12
13.
DeepFM [Guo+, IJICAI2017] ●
PNNよりWide & Deep的なアーキテクチャのほうが良い精度になってる ○ つまりFactorizationの上に積むより、積まないほうがよい? ● bit-wiseな学習とvector-wiseな学習の組み合わせが重要? 13
14.
vector-wiseなfactorization ● vector-wise >
bit-wiseという結果 ● 一方でvector-wiseでも積んで高次にしてもあまりよくならない? ○ PNNよりFMをwide & deepにしたほうが良くなってるの辛い ● 高次にするときにどこで高次にしているのかが明確ではない ○ implicitなhigh-order interaction ○ これをexplicitなものにできないか? 14
15.
Deep Cross Network
(DCN) [Wang+, ADKDD2017] ● x0が各Layerに常にかかる => Attentionっぽさがある ● vectorizeはされていない 15
16.
Deep Cross Network
(DCN) [Wang+, ADKDD2017] ● DCN (表ではDC), FNN (表ではDNN)と比較して改善している ○ 論文でW&Dと比較するって書いてあるのに結果では比較してない ● 各層をx_0とのスカラー積で表現できる ○ Pros: Feature Interactionを効率的に学習できる ○ Cons: x_0とのスカラー積という特殊な形にしか使えない ● bit-wiseなinteractionしかしてない 16
17.
提案手法のコンセプト ● vector-wiseでexplicitなhigh-order interactionを実現する ○
vector-wise と bit-wise、explicit と implicitは異なる特徴をもつので、組み合わせたい ○ 現状ないのは、explicitでvector-wiseな手法 ● interactionが高次になっても、複雑性が指数的に増加しない ○ この発表では触れない 17
18.
Compressed Interaction Network
(CIN) 18RNNっぽさがある
19.
Compressed Interaction Network
(CIN) 19 ● CNNと類似しているともいえる ○ X^kとX^0の外積のテンソルZ^k+1を画像と考えると、W^kがフィルター ○ テンソルをフィルターを使ってデータ圧縮しているともいえる
20.
eXtreme Deep Factorization
Machines (xDeepFM) ● Liner + CIN + DNNの組み合わせ ○ CIN: explicitな高次元インタラクション (vector-wise) ○ DNN: implicitな高次元インタラクション 20
21.
Experiments ● 3つの課題を検証したい ○ (1)
CINは高次元のインタラクションを学習できているか? ○ (2) implicitとexplicitの組み合わせは有効か? ○ (3) xDeepFMのパラメータはどのようにチューニングするか? ■ この発表では触れない ● データセット ○ Criteo ■ 公開データ ○ Dianping ■ 中国のレストランレビューサイト、著者らが収集 ○ Bing News ■ 内部データ 21
22.
Baselines ● Logistic Regression
(LR) ● Factorization Machines (FM) ● DNN ● PNN ● Wide & Deep ● DCN ● DeepFM 22
23.
● シングルモデルでの比較 ● CINがほとんどでBest ○
特にDianping, Bingで良い ● 特にBingでは5次の特徴で良い結 果になっている 高次の学習ができている 23
24.
● すべてのデータで最高の精度 ○ implicitとexplictを組み合わせることは大切 ●
ほとんどのネットワークのDeptは浅い 24
25.
まとめ ● 高次なfeature interactionについてimplicitなものとexplicitなものを定義して、それを 組み合わせたxDeepFMを提案 ●
その中で高次でexplicitなfeature interactionを実現するためのCINを提案 ● 実社会データセットでover performした 25
26.
感想 ● FMをこの機会にがっつり調べて勉強になった ○ これまで画像とかテキスト系の研究ばっかりみてたのでWide
& Deepみたいなノリの話あんまり知ら なくてそういうのもあるのかという気持ちになった ● Factorizationを明示的にやったほうがDeepでも良いのは意外 ○ CNNは画像の近傍に重要な情報があるという事前知識をいれているし、RNNは語順が大事という知 識をいれている ○ カテゴリカルな変数は組み合わせが大事という情報をいれるのは十分に妥当性があるし、それで精度 があがるのは納得感がある ● もしデータと計算資源が無限にあればシンプルなDNNのほうが強くなったりするんだ ろうか 26