3. 手法 FT-TransformerTransformer内部構造
FT-TransformerのTransformer層
17
出典
[1] Attention Is All You Need.
[2] Learning Deep Transformer Models for Machine Translation.
オリジナル論文[1]のTransformer層
当論文で用いるTransformer層はPreNorm変形型[2] をベースに、最初の正規化を除外した構造
※実験の結果この構造が良好なパフォーマンスを得られた為
モデル構造
20
4. 実験
表形式データセット
分類 手法
DL
先行研究
NODE(Popov et al., 2020)
TabNet (Arik and Pfister, 2020)
AutoInt (Song et al., 2019)
GrowNet (Badirli et al., 2020)
SNN (Klambauer et al., 2017)
DCN V2 (Wang et al., 2020a)
本論文
提案手法
MLP
ResNet
FT-Transformer ★提案手法本命
GBDT
決定木系
XGBoost (Chenand Guestrin,2016)
CatBoost (Prokhorenkovaet al., 2018)
略
称
データセット名 概要 年
CA California Housing 不動産価格 1997
AD Adult 所得推定 1996
HE Helena 視覚的内容属性 2019
JA Jannis 視覚的内容属性 2019
HI Higgs 物理粒子シュミレート 2014
AL ALOI 画像 2005
EP Epsilon 模擬物理実験 -
YE Year 音声の特徴 2011
CO Covtype 森林の特徴 2000
YA Yahoo 検索クエリ 2011
MI Microsoft 検索クエリ 2013