SlideShare a Scribd company logo
1 of 33
論文紹介
Towards Knowledge-Based Personalized Product
Description Generation in E-commerce
北海道大学大学院情報科学院
調和系工学研究室
博士1年 吉田拓海
5月27日(水)
論文情報
• タイトル
– Towards Knowledge-Based Personalized Product Description
Generation in E-commerce
• 学会
– KDD2019(Applied Data Science Track Papers)
• 著者
– Qibin Chen1*, Junyang Lin2,3*, Yichang Zhang3,
Hongxia Yang3†, Jingren Zhou3, Jie Tang1†
• 1Department of Computer Science and Technology, Tsighua
University
• 2School of Foreign Languages, Peking University
• 3Alibaba Group
• *These authors contributed equally to this work
• †Corresponding Authors
• 実験コード
– https://github.com/THUDM/KOBE
1
概要
• KnOwledge Based pErsonalized (KOBE)モデルを提案
– Transformerを用いたEncoder-Decoderモデル
– Attribute Fusion (属性の融合)
– Knowledge Incorporation (外部知識の取入れ)
2
パーソナライズされた商品説明文を生成する
商品のタイトルと説明文(例)
• タイトル
– 九六致情侣套头复古毛衣韩版宽松男生毛线衫男兔绒包芯纱针织衫潮
• 説明文
– 这是一款复古文艺的针织毛衣,时尚百搭的款式,颜色百搭面料舒适,
给人冬日里暖暖的感觉,无论是任何的肤色都相当好搭配,穿起来更
加有型,时尚感爆棚。
3
Introduction
• 電子商取引(EC)では商品説明文が重要
– 物理的な店舗のように販売員と顧客が対面で会話できない
• これまでのECサイトでの商品説明文
– 退屈で、あまり効果的でないものが手動で作成(時間がかかる)
• 商品説明文に求められるもの
– 関連する知識と正確な商品情報が含まれている
– 顧客の好みに基づいてパーソナライズされ、顧客の興味を促進する
4
Introduction
• 本稿の貢献
– ニューラル手法とseq2seq学習を商品説明文の生成に適用
– パーソナライズされた商品説明文に注目し、
生成の質を向上させるために商品属性と外部知識を利用した
新しいモデルKOBEを提案
– 商品説明文生成のためのデータセット(TaoDescribe)の構築
– 実験の結果、パーソナライズされた有益な説明文を生成できること
を実証
5
提案モデル(KOBE)
• 商品タイトルから説明文を自動生成
6
入力 出力
商品タイトル
𝒙 = (𝑥1, 𝑥2, … , 𝑥 𝑛)
商品説明文
𝒚 = 𝑦1, 𝑦2, … , 𝑦 𝑚
Encoder-Decoder
(Transformer)
Baseline Model
Baseline Modelの限界
• 一般的で曖昧な記述をすることが多く、つまらなくて使い物にならない
– ユーザの好みを考慮していない
• 興味深く有益な説明文を生成するためには商品タイトルだけでは不十分
– 例:樹脂ランプの説明文
• 樹脂の特徴などの知識を用いることでより情報量の多い説明文を生成可能
提案モデル(KOBE)
• 商品タイトルから説明文を自動生成
• Attribute Fusion パーソナライゼーションの実現
• Knowledge Incorporation 生成の情報性の向上
7
KOBE Model
入力 出力
商品タイトル
𝒙 = (𝑥1, 𝑥2, … , 𝑥 𝑛)
属性
𝒂 = (𝑎1, 𝑎2)
外部知識
𝒘 = (𝑤1, 𝑤2, … , 𝑤 𝑢)
商品説明文
𝒚 = 𝑦1, 𝑦2, … , 𝑦 𝑚
Encoder-Decoder
(Transformer)
KOBEモデルの2つの工夫
提案モデル(KOBE) アーキテクチャ 8
外部知識 属性商品タイトル 商品説明文
商品説明文
Attribute Fusion
• 商品タイトルだけではなく特定の属性(Aspect, User Category)
を“flavor”として取り込む
– Aspect(𝐴1)
• 機能、外観といった商品の側面
– User Category(𝐴2)
• 興味を示すユーザカテゴリ
9
Attribute Fusion (Aspect)
• Aspectの選択とアノテーション
– データの統計量と専門家の経験から 𝐴1 = 3とした
– 説明文からAspectを抽出する
• 全ての記述を抽出しword2vecによって単語ベクトルを求める
• 各形容詞について各Aspect単語との余弦距離を計算し
類似度スコア求める(𝑠1, 𝑠2, … , 𝑠|𝐴1|)
• 形容詞を類似度スコアが最も高いAspectに割り当てる
– max 𝑠1, … , 𝑠 𝐴1
< 𝛾∑𝑠 𝑘 の場合はその形容詞はどのAspectにも分類
できないことを意味する
• 説明とAspectに属する形容詞の集合との意味的距離(semantic
distance)に基づいてアノテーション
10
表 3つのAspectとそれに属する形容詞数と例
図 各単語ベクトルのt-SNEによる可視化
Attribute Fusion (User Category)
• 著者らのECサイトではユーザは”interest tag”が付与されている
– “interest tag”は41種(詳細不明)
11
interest tag
user category
・説明文をクリック、長く滞在したユーザ
の主要なグループに応じてアノテーション
・出現回数が5回以下の”User Category”は
<UNK>に置き換え (結果24種に)
・Hardなラベルの方が単純で効果的
ユーザ
説明文
…
…
説明文のアノテーション
Attribute Fusion (User Category)
• 著者らのデータセットではフィードバックが非常に疎
– 説明文𝑌とは異なる文章データ𝑍(詳細不明)を収集
– 𝑍上で”User Category”分類器𝑀を学習
• CNNベースの分類器[1]
– 分類器𝑀で説明文𝑌をアノテーション
12
説明文𝑌謎文章𝑍
User Category
分類器𝑀
学習 アノテーション
表 𝑍におけるUser Categoryの出現頻度
[1] Yoon Kim. 2014. Convolutional neural networks for sentence classification. arXiv preprint arXiv:1408.5882 (2014).
Attribute Fusion
• タイトル𝒙のEmbeddingに属性𝒂のEmbeddingを追加する
– Aspect属性𝒂 𝟏のEmbeddingとUser Category属性𝒂 𝟐のEmbedding
を平均化して𝒆 𝒂𝒕𝒕𝒓を取得する
– タイトル𝒙のEmbedding(𝑒 = (𝑒1, 𝑒2, … , 𝑒 𝑛 ))の各タイムステップ𝑖で
𝑒𝑖に𝑒 𝑎𝑡𝑡𝑟を追加する
• 後述の実験で色々比較するが上の方法が一番良い
13
Knowledge Incorporation
• 興味深く有益な説明文を生成するためには
基本的な商品情報だけでは不十分
– 例:樹脂ランプの説明文の生成
• 樹脂の特徴などの知識を用いることで、情報量の多い説明文を生成
14
Knowledge Incorporation
• Knowledge Retrieval
– 中国最大規模の構造知識グラフCN-Dpedia[1]から知識𝑤を取得
• 仮定:商品タイトルに含まれる各単語の関連知識は
商品そのものに関連している
• 各商品について5個ランダム抽出し<SEP>トークンで連結
15
CN-Dpedia[1]
[1] Bo Xu, Yong Xu, Jiaqing Liang, Chenhao Xie, Bin Liang, Wanyun Cui, and Yanghua Xiao. 2017. CN-DBpedia: A
never-ending Chinese knowledge extraction system. In IEA/AIE’19. Springer, 428–438.
商品タイトルの単語𝑥𝑖
𝑣𝑖 𝑤𝑖
1
𝑤𝑖
2
𝑤𝑖
𝑘
…
知識𝑤𝑖
KOBE
(提案モデル)
Knowledge Incorporation
• Knowledge Encoding and Combination
– Knowledge Encoder(Transformer)で知識𝒘を
高レベル表現𝒖にエンコード
– 次にBiDAF[1]を適用して2種類の表現を組み合わせる
• タイトル𝒙の表現𝒉 と 知識𝒘の表現𝒖
16
[1] Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hannaneh Hajishirzi. 2016. Bidirectional attention flow for
machine comprehension. arXiv preprint arXiv:1611.01603 (2016).
Knowledge Incorporation
• Knowledge Encoding and Combination
– 具体的には2つの方向のattentionを計算
• タイトルから知識への注意 𝒂
• 知識からタイトルへの注意 𝒃
– これらのattentionは知識𝑤の表現𝑢 ∈ ℝ 𝑢×𝑑と
タイトル𝑥の表現ℎ ∈ ℝ 𝑛×𝑑間の類似度行列𝑆 ∈ ℝ 𝑛×𝑢から導出される
• 𝛼:2つのベクトルの類似度を計算
– 𝛼 ℎ, 𝑢 = 𝑤𝑆
𝑇
ℎ; 𝑢; ℎ ∘ 𝑢
» 𝑤𝑆 ∈ ℝ3𝑑
:学習可能な重みベクトル
» ∘:要素積
» ;:ベクトルの結合
17
Knowledge Incorporation 18
商品タイトル 𝒙 = (𝑥1, … 𝑥 𝑛) 知識 𝒘 = (𝑤1, … 𝑤 𝑢)
Transformer Encoder Transformer Encoder
𝒉 ∈ ℝ 𝑛×𝑑 𝒖 ∈ ℝ 𝑢×𝑑
𝑺 ∈ ℝ 𝑛×𝑢
𝒂𝑖 = softmax 𝑆𝑖:
𝑢i =
𝑘
𝑎𝑖𝑘 𝑢 𝑘
𝒖 ∈ ℝ 𝑛×𝑑
𝑺 ∈ ℝ 𝑛×𝑢
𝒃 = softmax max(𝑆𝑖:)
ℎ =
𝑘
𝑏 𝑘ℎ 𝑘
𝒉 ∈ ℝ 𝑛×𝑑
最終的に得られる表現 ℎ; 𝑢; ℎ ∘ 𝑢; ℎ ∘ ℎ ∈ ℝ4𝑑×𝑇
max softmax
softmax
実験 データセット
• データセット“TaoDescribe“を構築
– 中国の大規模電子商取引サイト“淘宝網(Taobao)”から収集
• 商品情報(商品のタイトル、Aspect、ユーザカテゴリ)と商品説明文
– 2013年11月から2018年12月のデータ
– データ前処理
• 商品タイトル、説明文が長すぎるペアは破棄
– タイトル100トークン以上、説明文150トークン以上
• データセット中での出現回数が5回以下のトークンを
<UNK>トークンで置換
– 最終的なインスタンス(𝑥,𝑦,𝑎,𝑤)数:2,129,187
19
データ数
train 2,2114,034
validation 9,917
test 5,236
語彙数
タイトル 5,428
説明文 9,917
平均トークン数
タイトル 31.4
説明文 90.2
実験
• システムの比較
– Baseline
• 属性𝑎、知識𝑤を考慮しないモデル
– Attr-D(Dedicated)
• Ficler and Godbergに倣ったモデル
• データの各サブセットに対してそれ専門のモデルを学習
• Aspectのみで専門モデルを学習(データ量の関係)
– Attr-S(Source token)
• Sennrichらに倣ったモデル
• 属性𝑎を特殊なトークンとして原文に追加
– Attr-T(start of Target sequence)
• target sequenceで属性固有の開始tokenを使用
– Attr-A(Add)
• 各タイムステップでタイトルのEmbeddingに
属性のEmbeddingを追加する(途中で説明したモノ)
• Aspectのみ、User Categoryのみ、両方使用の3つを比較
• 提案モデルKOBEはAttr-A(Both)とKow-BiAttn
20
実験 Hyperparameters
• Hyperparameters
– Encoder-Decoder
• six-layer Transformer Encoder
• two-layer Transformer Decoder
– input embedding
• 𝑑 𝑚𝑜𝑑𝑒𝑙 = 512
– Transformer FNN inner representation size
• 𝑑 𝑓𝑓 = 2048
– activation function
• ReLU
– batch size
• 64
– optimizer
• Adam(𝛽1 = 0.9, 𝛽2 = 0.998, 𝜖 = 1 × 10−9
, 𝑙𝑒𝑎𝑛𝑖𝑛𝑔 𝑟𝑎𝑡𝑒 = 1 × 10−9
)
– gradient clipping
• [-1, 1]
– regularization
• dropout(p=0.1)
– beam search size(inference)
• 10
21
実験 Hardware Software
• Hardware
– CPU
• Intel(R) Xeon(R) Platinum 8163 CPU @ 2.50GHz, 512GB RAM
– GPU
• 8 NVIDIA V100-SXM2-16GB GPUs
– 実験には約3日かかった(multi-GPU setting)
• consumer-grade single GPU(例:Titan X GPU)なら4日くらい(予想)
• Software
– Pytorch (version 0.4.1)
– Python 3.6
– 実験のコード
• https://github.com/THUDM/KOBE
22
実験 評価指標
• BLEU
– 生成文の正確さを評価
• Lexical Diversity(語彙多様性)
– 生成文の多様性を評価
– 文章生成の課題は多様性のない安全な出力を生成すること
– テストセット上で生成されたn-gramの数
• Attribute Capturing(属性の捕捉)
– 生成文がパーソナライズされた文章になってるか
(生成文から入力属性が復元できるかを評価する)
– 生成文から入力属性を予測、予測精度によって評価
• Aspect
– 説明文アノテーションに使用したアルゴリズムで予測
• User Category
– 𝑀:説明文アノテーションに使用した分類器で予測
23
実験結果 Does Attribute Fusion improve generation quality?
• Attr-A(Both)はBaselineよりも+0.7
• このBLEUスコアの向上は注目に値する
– 属性はカテゴリカルで商品に関連する情報を殆ど含まない
– 属性はオラクルとして機能する
• ユーザの好み、カテゴリに応じて属性を指定する設定をシミュレート
24
Attribute FusionによってBLEUスコア向上
実験結果 Do Attribute Fusion and Knowledge Incorporation improve generation diversity? 25
Attribute FusionによってDiversity(多様性)が向上
実験結果 Do Attribute Fusion and Knowledge Incorporation improve generation diversity? 26
Knowledge IncorporationによってDiversity(多様性)が向上
実験結果 Does our model capture characteristics of different attributes?
• Baselineは精度が低い
– 説明文が興味のあるユーザグループと一致していない可能性が高い
• 提案手法では精度が高い
– 属性を反映した記述が生成できている
27
提案モデル(KOBE)は意図した属性を反映した説明文を生成している
実験結果 Ablation Study
• Ablation Study
– 上から順次削除(一番下はBaseline)
– konwledgeを削除すると
• BLEUは上昇、商品と関連性が高くない外部知識はモデルの性能を損な
う可能性がある(多様性には貢献)
– user categoryを削除すると
• BLEUが減少、多様性も減少
– aspectも削除すると
• また減少、属性は多様性に重要な貢献をしている
– 3つの要素はBLEUを犠牲にすることなく多様性(情報性)を大幅に上
昇
28
実験結果 Human Evaluation
• テストセットの一部で人間による評価を実施
– システムに関する予備知識を持たない人に配布
• 商品タイトル、Baselineの生成文、KOBE(提案手法)の生成文
– 3項目について1~5でスコアリング
29
Fluencyを犠牲にすることなくDiversityの向上(Fluencyも高い+0.17)
Overall Qualityについても明らかな優位性を示す(+0.13)
Fluency 記述の流暢さ
Diversity 記述の多様性、競争的な内容を含んでいるか
Overall Quality 記述の合理性(世界の知識と一致しているか)
実験結果 生成文例(異なるAspectによる比較) 30
条件づけた”Aspect”に応じて異なる説明文を生成
appearance(外観)
function(機能)
実験結果 生成文例(異なるUser Categoryによる比較) 31
ユーザカテゴリに応じて異なる説明文を生成
housewife(主婦)
geek(オタク)
まとめ
• ECプラットフォームにおけるパーソナライズされた
商品説明文の自動生成システムを開発
– Encoder-Decoder(Transformer)
– Aspect(商品側面)、ユーザカテゴリ、Knowledge(外部知識)
– 自動評価と人間による評価によって有効性を検証
• 商品説明文生成のための大規模データセットTaoDescribeを構築
32

More Related Content

What's hot

2021 09 29_dl_hirata
2021 09 29_dl_hirata2021 09 29_dl_hirata
2021 09 29_dl_hirataharmonylab
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedbackharmonylab
 
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...harmonylab
 
FastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded SystemsFastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded Systemsharmonylab
 
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...harmonylab
 
You Only Learn One Representation: Unified Network for Multiple Tasks
You Only Learn One Representation: Unified Network for Multiple TasksYou Only Learn One Representation: Unified Network for Multiple Tasks
You Only Learn One Representation: Unified Network for Multiple Tasksharmonylab
 
Understanding Blackbox Predictions via Influence Functions
Understanding Blackbox Predictions via Influence FunctionsUnderstanding Blackbox Predictions via Influence Functions
Understanding Blackbox Predictions via Influence Functionsharmonylab
 
Real-Time Semantic Stereo Matching
Real-Time Semantic Stereo MatchingReal-Time Semantic Stereo Matching
Real-Time Semantic Stereo Matchingharmonylab
 
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...harmonylab
 
ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究
ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究
ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究harmonylab
 
PredCNN: Predictive Learning with Cascade Convolutions
PredCNN: Predictive Learning with Cascade ConvolutionsPredCNN: Predictive Learning with Cascade Convolutions
PredCNN: Predictive Learning with Cascade Convolutionsharmonylab
 
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...harmonylab
 
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)harmonylab
 
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender SystemTop-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender Systemharmonylab
 
Differential Networks for Visual Question Answering
Differential Networks for Visual Question AnsweringDifferential Networks for Visual Question Answering
Differential Networks for Visual Question Answeringharmonylab
 
言語モデルを用いた俳句評価器の構築と性能評価に関する研究
言語モデルを用いた俳句評価器の構築と性能評価に関する研究言語モデルを用いた俳句評価器の構築と性能評価に関する研究
言語モデルを用いた俳句評価器の構築と性能評価に関する研究harmonylab
 
Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...
Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...
Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...harmonylab
 

What's hot (20)

2021 09 29_dl_hirata
2021 09 29_dl_hirata2021 09 29_dl_hirata
2021 09 29_dl_hirata
 
2019 08 20_dl
2019 08 20_dl2019 08 20_dl
2019 08 20_dl
 
Learning to summarize from human feedback
Learning to summarize from human feedbackLearning to summarize from human feedback
Learning to summarize from human feedback
 
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill...
 
FastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded SystemsFastDepth: Fast Monocular Depth Estimation on Embedded Systems
FastDepth: Fast Monocular Depth Estimation on Embedded Systems
 
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
Mutual Mean-Teaching:Pseudo Label Refinery for Unsupervised Domain Adaption o...
 
You Only Learn One Representation: Unified Network for Multiple Tasks
You Only Learn One Representation: Unified Network for Multiple TasksYou Only Learn One Representation: Unified Network for Multiple Tasks
You Only Learn One Representation: Unified Network for Multiple Tasks
 
Understanding Blackbox Predictions via Influence Functions
Understanding Blackbox Predictions via Influence FunctionsUnderstanding Blackbox Predictions via Influence Functions
Understanding Blackbox Predictions via Influence Functions
 
Real-Time Semantic Stereo Matching
Real-Time Semantic Stereo MatchingReal-Time Semantic Stereo Matching
Real-Time Semantic Stereo Matching
 
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
Towards Faster and Stabilized GAN Training for High-fidelity Few-shot Image S...
 
ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究
ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究
ロードヒーティング制御における深層学習を用いた路面画像認識に関する研究
 
PredCNN: Predictive Learning with Cascade Convolutions
PredCNN: Predictive Learning with Cascade ConvolutionsPredCNN: Predictive Learning with Cascade Convolutions
PredCNN: Predictive Learning with Cascade Convolutions
 
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised L...
 
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
MASTERING ATARI WITH DISCRETE WORLD MODELS (DreamerV2)
 
Top-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender SystemTop-K Off-Policy Correction for a REINFORCE Recommender System
Top-K Off-Policy Correction for a REINFORCE Recommender System
 
Differential Networks for Visual Question Answering
Differential Networks for Visual Question AnsweringDifferential Networks for Visual Question Answering
Differential Networks for Visual Question Answering
 
言語モデルを用いた俳句評価器の構築と性能評価に関する研究
言語モデルを用いた俳句評価器の構築と性能評価に関する研究言語モデルを用いた俳句評価器の構築と性能評価に関する研究
言語モデルを用いた俳句評価器の構築と性能評価に関する研究
 
Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...
Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...
Reinforcement Mechanism Design:With Applications to Dynamic Pricing in Sponso...
 
Mobilenet
MobilenetMobilenet
Mobilenet
 
Predictron
PredictronPredictron
Predictron
 

Similar to Towards Knowledge-Based Personalized Product Description Generation in E-commerce

2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...n-yuki
 
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlSatoshi Kato
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた正志 坪坂
 
ICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaYuto Yamaguchi
 
Xcore introduction
Xcore introductionXcore introduction
Xcore introductionAkira Tanaka
 
【文献紹介】Automatic community creation for abstractive spoken conversation summar...
【文献紹介】Automatic community creation for abstractive spoken conversation summar...【文献紹介】Automatic community creation for abstractive spoken conversation summar...
【文献紹介】Automatic community creation for abstractive spoken conversation summar...Takashi YAMAMURA
 
ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う ~ 概念モデリング教本を元に ~
ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う  ~ 概念モデリング教本を元に ~ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う  ~ 概念モデリング教本を元に ~
ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う ~ 概念モデリング教本を元に ~Knowledge & Experience
 
Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"
Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"
Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"TatsuroMiyamoto
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarKodaira Tomonori
 
GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介Masayoshi Kondo
 
jQueryの先に行こう!最先端のWeb開発トレンドを学ぶ
jQueryの先に行こう!最先端のWeb開発トレンドを学ぶjQueryの先に行こう!最先端のWeb開発トレンドを学ぶ
jQueryの先に行こう!最先端のWeb開発トレンドを学ぶShumpei Shiraishi
 
Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Yuki Ogasawara
 
卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイントTsubasa Hirakawa
 
Patentmap r xinagze
Patentmap r xinagzePatentmap r xinagze
Patentmap r xinagzeXiangze
 
PGXによる学術文献データの分析
PGXによる学術文献データの分析PGXによる学術文献データの分析
PGXによる学術文献データの分析Mio Takei
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニングgenroku
 
関数型言語ElixirのIoTシステム開発への展開
関数型言語ElixirのIoTシステム開発への展開関数型言語ElixirのIoTシステム開発への展開
関数型言語ElixirのIoTシステム開発への展開Hideki Takase
 
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafKenta Oono
 

Similar to Towards Knowledge-Based Personalized Product Description Generation in E-commerce (20)

2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...
 
How to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & imlHow to use in R model-agnostic data explanation with DALEX & iml
How to use in R model-agnostic data explanation with DALEX & iml
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
 
ICDE2012勉強会:Social Media
ICDE2012勉強会:Social MediaICDE2012勉強会:Social Media
ICDE2012勉強会:Social Media
 
Xcore introduction
Xcore introductionXcore introduction
Xcore introduction
 
【文献紹介】Automatic community creation for abstractive spoken conversation summar...
【文献紹介】Automatic community creation for abstractive spoken conversation summar...【文献紹介】Automatic community creation for abstractive spoken conversation summar...
【文献紹介】Automatic community creation for abstractive spoken conversation summar...
 
ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う ~ 概念モデリング教本を元に ~
ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う  ~ 概念モデリング教本を元に ~ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う  ~ 概念モデリング教本を元に ~
ChatGPT(LLMによる生成系AI)の追加学習を No Code で行う ~ 概念モデリング教本を元に ~
 
Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"
Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"
Paper Introduction "A Topic-Sensitive Model for Salient Entity Linking"
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminar
 
GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介GeneratingWikipedia_ICLR18_論文紹介
GeneratingWikipedia_ICLR18_論文紹介
 
jQueryの先に行こう!最先端のWeb開発トレンドを学ぶ
jQueryの先に行こう!最先端のWeb開発トレンドを学ぶjQueryの先に行こう!最先端のWeb開発トレンドを学ぶ
jQueryの先に行こう!最先端のWeb開発トレンドを学ぶ
 
Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512
 
卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント
 
Patentmap r xinagze
Patentmap r xinagzePatentmap r xinagze
Patentmap r xinagze
 
LDA入門
LDA入門LDA入門
LDA入門
 
PGXによる学術文献データの分析
PGXによる学術文献データの分析PGXによる学術文献データの分析
PGXによる学術文献データの分析
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング
 
関数型言語ElixirのIoTシステム開発への展開
関数型言語ElixirのIoTシステム開発への展開関数型言語ElixirのIoTシステム開発への展開
関数型言語ElixirのIoTシステム開発への展開
 
Development and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and mafDevelopment and Experiment of Deep Learning with Caffe and maf
Development and Experiment of Deep Learning with Caffe and maf
 

More from harmonylab

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也harmonylab
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究harmonylab
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...harmonylab
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究harmonylab
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究harmonylab
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...harmonylab
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backboneharmonylab
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Modelsharmonylab
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimationharmonylab
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Modelsharmonylab
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimationharmonylab
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Modelsharmonylab
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究harmonylab
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究harmonylab
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究harmonylab
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究harmonylab
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究harmonylab
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究harmonylab
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...harmonylab
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究harmonylab
 

More from harmonylab (20)

【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
【修士論文】代替出勤者の選定業務における依頼順決定方法に関する研究   千坂知也
 
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
【修士論文】経路探索のための媒介中心性に基づく道路ネットワーク階層化手法に関する研究
 
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
A Study on Decision Support System for Snow Removal Dispatch using Road Surfa...
 
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
【卒業論文】印象タグを用いた衣服画像生成システムに関する研究
 
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
【卒業論文】大規模言語モデルを用いたマニュアル文章修正手法に関する研究
 
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
DLゼミ:Primitive Generation and Semantic-related Alignment for Universal Zero-S...
 
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile BackboneDLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
DLゼミ: MobileOne: An Improved One millisecond Mobile Backbone
 
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat ModelsDLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
 
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose EstimationDLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
DLゼミ: ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
 
Voyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language ModelsVoyager: An Open-Ended Embodied Agent with Large Language Models
Voyager: An Open-Ended Embodied Agent with Large Language Models
 
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose EstimationDLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
DLゼミ: Ego-Body Pose Estimation via Ego-Head Pose Estimation
 
ReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language ModelsReAct: Synergizing Reasoning and Acting in Language Models
ReAct: Synergizing Reasoning and Acting in Language Models
 
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究形態素解析を用いた帝国議会議事速記録の変遷に関する研究
形態素解析を用いた帝国議会議事速記録の変遷に関する研究
 
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
【卒業論文】深層生成モデルを用いたユーザ意図に基づく衣服画像の生成に関する研究
 
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究灯油タンク内の液面高計測を用いた灯油残量推定システムに関する研究
灯油タンク内の液面高計測を用いた 灯油残量推定システムに関する研究
 
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究深層自己回帰モデルを用いた俳句の生成と評価に関する研究
深層自己回帰モデルを用いた俳句の生成と評価に関する研究
 
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究競輪におけるレーティングシステムを用いた予想記事生成に関する研究
競輪におけるレーティングシステムを用いた予想記事生成に関する研究
 
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
【卒業論文】B2Bオークションにおけるユーザ別 入札行動予測に関する研究
 
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...A Study on Estimation of Household Kerosene Consumption for Optimization of D...
A Study on Estimation of Household Kerosene Consumption for Optimization of D...
 
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
マルチエージェント深層強化学習による自動運転車両の追越行動の獲得に関する研究
 

Recently uploaded

Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Recently uploaded (11)

Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 

Towards Knowledge-Based Personalized Product Description Generation in E-commerce

  • 1. 論文紹介 Towards Knowledge-Based Personalized Product Description Generation in E-commerce 北海道大学大学院情報科学院 調和系工学研究室 博士1年 吉田拓海 5月27日(水)
  • 2. 論文情報 • タイトル – Towards Knowledge-Based Personalized Product Description Generation in E-commerce • 学会 – KDD2019(Applied Data Science Track Papers) • 著者 – Qibin Chen1*, Junyang Lin2,3*, Yichang Zhang3, Hongxia Yang3†, Jingren Zhou3, Jie Tang1† • 1Department of Computer Science and Technology, Tsighua University • 2School of Foreign Languages, Peking University • 3Alibaba Group • *These authors contributed equally to this work • †Corresponding Authors • 実験コード – https://github.com/THUDM/KOBE 1
  • 3. 概要 • KnOwledge Based pErsonalized (KOBE)モデルを提案 – Transformerを用いたEncoder-Decoderモデル – Attribute Fusion (属性の融合) – Knowledge Incorporation (外部知識の取入れ) 2 パーソナライズされた商品説明文を生成する
  • 4. 商品のタイトルと説明文(例) • タイトル – 九六致情侣套头复古毛衣韩版宽松男生毛线衫男兔绒包芯纱针织衫潮 • 説明文 – 这是一款复古文艺的针织毛衣,时尚百搭的款式,颜色百搭面料舒适, 给人冬日里暖暖的感觉,无论是任何的肤色都相当好搭配,穿起来更 加有型,时尚感爆棚。 3
  • 5. Introduction • 電子商取引(EC)では商品説明文が重要 – 物理的な店舗のように販売員と顧客が対面で会話できない • これまでのECサイトでの商品説明文 – 退屈で、あまり効果的でないものが手動で作成(時間がかかる) • 商品説明文に求められるもの – 関連する知識と正確な商品情報が含まれている – 顧客の好みに基づいてパーソナライズされ、顧客の興味を促進する 4
  • 6. Introduction • 本稿の貢献 – ニューラル手法とseq2seq学習を商品説明文の生成に適用 – パーソナライズされた商品説明文に注目し、 生成の質を向上させるために商品属性と外部知識を利用した 新しいモデルKOBEを提案 – 商品説明文生成のためのデータセット(TaoDescribe)の構築 – 実験の結果、パーソナライズされた有益な説明文を生成できること を実証 5
  • 7. 提案モデル(KOBE) • 商品タイトルから説明文を自動生成 6 入力 出力 商品タイトル 𝒙 = (𝑥1, 𝑥2, … , 𝑥 𝑛) 商品説明文 𝒚 = 𝑦1, 𝑦2, … , 𝑦 𝑚 Encoder-Decoder (Transformer) Baseline Model Baseline Modelの限界 • 一般的で曖昧な記述をすることが多く、つまらなくて使い物にならない – ユーザの好みを考慮していない • 興味深く有益な説明文を生成するためには商品タイトルだけでは不十分 – 例:樹脂ランプの説明文 • 樹脂の特徴などの知識を用いることでより情報量の多い説明文を生成可能
  • 8. 提案モデル(KOBE) • 商品タイトルから説明文を自動生成 • Attribute Fusion パーソナライゼーションの実現 • Knowledge Incorporation 生成の情報性の向上 7 KOBE Model 入力 出力 商品タイトル 𝒙 = (𝑥1, 𝑥2, … , 𝑥 𝑛) 属性 𝒂 = (𝑎1, 𝑎2) 外部知識 𝒘 = (𝑤1, 𝑤2, … , 𝑤 𝑢) 商品説明文 𝒚 = 𝑦1, 𝑦2, … , 𝑦 𝑚 Encoder-Decoder (Transformer) KOBEモデルの2つの工夫
  • 9. 提案モデル(KOBE) アーキテクチャ 8 外部知識 属性商品タイトル 商品説明文 商品説明文
  • 10. Attribute Fusion • 商品タイトルだけではなく特定の属性(Aspect, User Category) を“flavor”として取り込む – Aspect(𝐴1) • 機能、外観といった商品の側面 – User Category(𝐴2) • 興味を示すユーザカテゴリ 9
  • 11. Attribute Fusion (Aspect) • Aspectの選択とアノテーション – データの統計量と専門家の経験から 𝐴1 = 3とした – 説明文からAspectを抽出する • 全ての記述を抽出しword2vecによって単語ベクトルを求める • 各形容詞について各Aspect単語との余弦距離を計算し 類似度スコア求める(𝑠1, 𝑠2, … , 𝑠|𝐴1|) • 形容詞を類似度スコアが最も高いAspectに割り当てる – max 𝑠1, … , 𝑠 𝐴1 < 𝛾∑𝑠 𝑘 の場合はその形容詞はどのAspectにも分類 できないことを意味する • 説明とAspectに属する形容詞の集合との意味的距離(semantic distance)に基づいてアノテーション 10 表 3つのAspectとそれに属する形容詞数と例 図 各単語ベクトルのt-SNEによる可視化
  • 12. Attribute Fusion (User Category) • 著者らのECサイトではユーザは”interest tag”が付与されている – “interest tag”は41種(詳細不明) 11 interest tag user category ・説明文をクリック、長く滞在したユーザ の主要なグループに応じてアノテーション ・出現回数が5回以下の”User Category”は <UNK>に置き換え (結果24種に) ・Hardなラベルの方が単純で効果的 ユーザ 説明文 … … 説明文のアノテーション
  • 13. Attribute Fusion (User Category) • 著者らのデータセットではフィードバックが非常に疎 – 説明文𝑌とは異なる文章データ𝑍(詳細不明)を収集 – 𝑍上で”User Category”分類器𝑀を学習 • CNNベースの分類器[1] – 分類器𝑀で説明文𝑌をアノテーション 12 説明文𝑌謎文章𝑍 User Category 分類器𝑀 学習 アノテーション 表 𝑍におけるUser Categoryの出現頻度 [1] Yoon Kim. 2014. Convolutional neural networks for sentence classification. arXiv preprint arXiv:1408.5882 (2014).
  • 14. Attribute Fusion • タイトル𝒙のEmbeddingに属性𝒂のEmbeddingを追加する – Aspect属性𝒂 𝟏のEmbeddingとUser Category属性𝒂 𝟐のEmbedding を平均化して𝒆 𝒂𝒕𝒕𝒓を取得する – タイトル𝒙のEmbedding(𝑒 = (𝑒1, 𝑒2, … , 𝑒 𝑛 ))の各タイムステップ𝑖で 𝑒𝑖に𝑒 𝑎𝑡𝑡𝑟を追加する • 後述の実験で色々比較するが上の方法が一番良い 13
  • 15. Knowledge Incorporation • 興味深く有益な説明文を生成するためには 基本的な商品情報だけでは不十分 – 例:樹脂ランプの説明文の生成 • 樹脂の特徴などの知識を用いることで、情報量の多い説明文を生成 14
  • 16. Knowledge Incorporation • Knowledge Retrieval – 中国最大規模の構造知識グラフCN-Dpedia[1]から知識𝑤を取得 • 仮定:商品タイトルに含まれる各単語の関連知識は 商品そのものに関連している • 各商品について5個ランダム抽出し<SEP>トークンで連結 15 CN-Dpedia[1] [1] Bo Xu, Yong Xu, Jiaqing Liang, Chenhao Xie, Bin Liang, Wanyun Cui, and Yanghua Xiao. 2017. CN-DBpedia: A never-ending Chinese knowledge extraction system. In IEA/AIE’19. Springer, 428–438. 商品タイトルの単語𝑥𝑖 𝑣𝑖 𝑤𝑖 1 𝑤𝑖 2 𝑤𝑖 𝑘 … 知識𝑤𝑖 KOBE (提案モデル)
  • 17. Knowledge Incorporation • Knowledge Encoding and Combination – Knowledge Encoder(Transformer)で知識𝒘を 高レベル表現𝒖にエンコード – 次にBiDAF[1]を適用して2種類の表現を組み合わせる • タイトル𝒙の表現𝒉 と 知識𝒘の表現𝒖 16 [1] Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hannaneh Hajishirzi. 2016. Bidirectional attention flow for machine comprehension. arXiv preprint arXiv:1611.01603 (2016).
  • 18. Knowledge Incorporation • Knowledge Encoding and Combination – 具体的には2つの方向のattentionを計算 • タイトルから知識への注意 𝒂 • 知識からタイトルへの注意 𝒃 – これらのattentionは知識𝑤の表現𝑢 ∈ ℝ 𝑢×𝑑と タイトル𝑥の表現ℎ ∈ ℝ 𝑛×𝑑間の類似度行列𝑆 ∈ ℝ 𝑛×𝑢から導出される • 𝛼:2つのベクトルの類似度を計算 – 𝛼 ℎ, 𝑢 = 𝑤𝑆 𝑇 ℎ; 𝑢; ℎ ∘ 𝑢 » 𝑤𝑆 ∈ ℝ3𝑑 :学習可能な重みベクトル » ∘:要素積 » ;:ベクトルの結合 17
  • 19. Knowledge Incorporation 18 商品タイトル 𝒙 = (𝑥1, … 𝑥 𝑛) 知識 𝒘 = (𝑤1, … 𝑤 𝑢) Transformer Encoder Transformer Encoder 𝒉 ∈ ℝ 𝑛×𝑑 𝒖 ∈ ℝ 𝑢×𝑑 𝑺 ∈ ℝ 𝑛×𝑢 𝒂𝑖 = softmax 𝑆𝑖: 𝑢i = 𝑘 𝑎𝑖𝑘 𝑢 𝑘 𝒖 ∈ ℝ 𝑛×𝑑 𝑺 ∈ ℝ 𝑛×𝑢 𝒃 = softmax max(𝑆𝑖:) ℎ = 𝑘 𝑏 𝑘ℎ 𝑘 𝒉 ∈ ℝ 𝑛×𝑑 最終的に得られる表現 ℎ; 𝑢; ℎ ∘ 𝑢; ℎ ∘ ℎ ∈ ℝ4𝑑×𝑇 max softmax softmax
  • 20. 実験 データセット • データセット“TaoDescribe“を構築 – 中国の大規模電子商取引サイト“淘宝網(Taobao)”から収集 • 商品情報(商品のタイトル、Aspect、ユーザカテゴリ)と商品説明文 – 2013年11月から2018年12月のデータ – データ前処理 • 商品タイトル、説明文が長すぎるペアは破棄 – タイトル100トークン以上、説明文150トークン以上 • データセット中での出現回数が5回以下のトークンを <UNK>トークンで置換 – 最終的なインスタンス(𝑥,𝑦,𝑎,𝑤)数:2,129,187 19 データ数 train 2,2114,034 validation 9,917 test 5,236 語彙数 タイトル 5,428 説明文 9,917 平均トークン数 タイトル 31.4 説明文 90.2
  • 21. 実験 • システムの比較 – Baseline • 属性𝑎、知識𝑤を考慮しないモデル – Attr-D(Dedicated) • Ficler and Godbergに倣ったモデル • データの各サブセットに対してそれ専門のモデルを学習 • Aspectのみで専門モデルを学習(データ量の関係) – Attr-S(Source token) • Sennrichらに倣ったモデル • 属性𝑎を特殊なトークンとして原文に追加 – Attr-T(start of Target sequence) • target sequenceで属性固有の開始tokenを使用 – Attr-A(Add) • 各タイムステップでタイトルのEmbeddingに 属性のEmbeddingを追加する(途中で説明したモノ) • Aspectのみ、User Categoryのみ、両方使用の3つを比較 • 提案モデルKOBEはAttr-A(Both)とKow-BiAttn 20
  • 22. 実験 Hyperparameters • Hyperparameters – Encoder-Decoder • six-layer Transformer Encoder • two-layer Transformer Decoder – input embedding • 𝑑 𝑚𝑜𝑑𝑒𝑙 = 512 – Transformer FNN inner representation size • 𝑑 𝑓𝑓 = 2048 – activation function • ReLU – batch size • 64 – optimizer • Adam(𝛽1 = 0.9, 𝛽2 = 0.998, 𝜖 = 1 × 10−9 , 𝑙𝑒𝑎𝑛𝑖𝑛𝑔 𝑟𝑎𝑡𝑒 = 1 × 10−9 ) – gradient clipping • [-1, 1] – regularization • dropout(p=0.1) – beam search size(inference) • 10 21
  • 23. 実験 Hardware Software • Hardware – CPU • Intel(R) Xeon(R) Platinum 8163 CPU @ 2.50GHz, 512GB RAM – GPU • 8 NVIDIA V100-SXM2-16GB GPUs – 実験には約3日かかった(multi-GPU setting) • consumer-grade single GPU(例:Titan X GPU)なら4日くらい(予想) • Software – Pytorch (version 0.4.1) – Python 3.6 – 実験のコード • https://github.com/THUDM/KOBE 22
  • 24. 実験 評価指標 • BLEU – 生成文の正確さを評価 • Lexical Diversity(語彙多様性) – 生成文の多様性を評価 – 文章生成の課題は多様性のない安全な出力を生成すること – テストセット上で生成されたn-gramの数 • Attribute Capturing(属性の捕捉) – 生成文がパーソナライズされた文章になってるか (生成文から入力属性が復元できるかを評価する) – 生成文から入力属性を予測、予測精度によって評価 • Aspect – 説明文アノテーションに使用したアルゴリズムで予測 • User Category – 𝑀:説明文アノテーションに使用した分類器で予測 23
  • 25. 実験結果 Does Attribute Fusion improve generation quality? • Attr-A(Both)はBaselineよりも+0.7 • このBLEUスコアの向上は注目に値する – 属性はカテゴリカルで商品に関連する情報を殆ど含まない – 属性はオラクルとして機能する • ユーザの好み、カテゴリに応じて属性を指定する設定をシミュレート 24 Attribute FusionによってBLEUスコア向上
  • 26. 実験結果 Do Attribute Fusion and Knowledge Incorporation improve generation diversity? 25 Attribute FusionによってDiversity(多様性)が向上
  • 27. 実験結果 Do Attribute Fusion and Knowledge Incorporation improve generation diversity? 26 Knowledge IncorporationによってDiversity(多様性)が向上
  • 28. 実験結果 Does our model capture characteristics of different attributes? • Baselineは精度が低い – 説明文が興味のあるユーザグループと一致していない可能性が高い • 提案手法では精度が高い – 属性を反映した記述が生成できている 27 提案モデル(KOBE)は意図した属性を反映した説明文を生成している
  • 29. 実験結果 Ablation Study • Ablation Study – 上から順次削除(一番下はBaseline) – konwledgeを削除すると • BLEUは上昇、商品と関連性が高くない外部知識はモデルの性能を損な う可能性がある(多様性には貢献) – user categoryを削除すると • BLEUが減少、多様性も減少 – aspectも削除すると • また減少、属性は多様性に重要な貢献をしている – 3つの要素はBLEUを犠牲にすることなく多様性(情報性)を大幅に上 昇 28
  • 30. 実験結果 Human Evaluation • テストセットの一部で人間による評価を実施 – システムに関する予備知識を持たない人に配布 • 商品タイトル、Baselineの生成文、KOBE(提案手法)の生成文 – 3項目について1~5でスコアリング 29 Fluencyを犠牲にすることなくDiversityの向上(Fluencyも高い+0.17) Overall Qualityについても明らかな優位性を示す(+0.13) Fluency 記述の流暢さ Diversity 記述の多様性、競争的な内容を含んでいるか Overall Quality 記述の合理性(世界の知識と一致しているか)
  • 32. 実験結果 生成文例(異なるUser Categoryによる比較) 31 ユーザカテゴリに応じて異なる説明文を生成 housewife(主婦) geek(オタク)
  • 33. まとめ • ECプラットフォームにおけるパーソナライズされた 商品説明文の自動生成システムを開発 – Encoder-Decoder(Transformer) – Aspect(商品側面)、ユーザカテゴリ、Knowledge(外部知識) – 自動評価と人間による評価によって有効性を検証 • 商品説明文生成のための大規模データセットTaoDescribeを構築 32