More Related Content
Similar to 推薦システムになにができるのか - Techcompass
Similar to 推薦システムになにができるのか - Techcompass (20)
推薦システムになにができるのか - Techcompass
- 2. 自己紹介
• 関喜史
• 株式会社Gunosy共同創業者
• 東京大学大学院工学系研究科
技術経営戦略学専攻博士後期課
程
• 複数の大手ウェブ系企業でデータマイニングエンジニアと
してインターン・アルバイトを経験
• ソーシャルゲーム分析・リンク予測・推薦システム
• 修士1年の夏休みに大学院の同級生とGunosyを開発しリ
リース.想像以上の反響を受け昨年11月に法人化.
- 10. ウェブと推薦エンジン
• ECサイトへの導入
– Amazon, e-bay
– ブラジルのECサイトにおける実験では推薦システムにより8-20%の売上の
向上が見られた (Bullefet al. 2012)
• パーソナライゼーション
– Google Search
– Facebookのタイムライン
– Pandora Radio
• オンラインラジオの70%
• アメリカのラジオの7%を示す
– Youtubeの推薦システム
• ランキングと比較して協調フィルタリングを導入したときクリック数が2倍に増
加した(Davidson et al. 2010)
• スマートフォンの普及
– 画面が小さい、操作性が低い、通信速度が遅い
– 大量の情報を以下に表示するか?
– 情報を減らす
• パーソナライゼーション
- 13. 2.どのようにフィルタリングするか
• デモグラフィックフィルタリング
– ユーザのプロフィール情報を用いる
– 男性なら、女性なら、若者ならといったプロフィールを元に推薦を行う
• 内容ベースフィルタリング
– 推薦したいアイテムの情報とユーザの情報を用いて推薦を行う.
– 過去に高く評価した映画と同じ監督の映画を推薦する
• 協調フィルタリング
– 「この商品を買った人はこんな商品も買っています」
– 他のユーザの行動から推薦を行う
• ハイブリッドフィルタリング
– 内容ベースと協調フィルタリングを組み合わせる
• 利点・欠点
– 内容ベースフィルタリングは「その映画は俳優が好きで見たのか,監督が好きで見たのか」
といったアイテムの情報の何がユーザを引きつけたかを判別するのが難しい.協調フィルタ
リングは他のユーザの履歴を用いるためこれは内包されている.
– 協調フィルタリングは他のユーザの情報やユーザ本人の情報が十分にシステム上に存在する
ことが前提になっているため,使えない場合がある.内容ベースでは他のユーザの情報は不要
である.
– ハイブリッドフィルタリングはあまり有効ではないケースが多かったが,近年SNSの情報を
活用することで精度が高まっており注目されている.
- 14. 3.どのようにデータを用いるか?
• メモリベース
– 獲得したデータをそのまま用いて推薦結果を得る手法
• モデルベース
– 獲得したデータを用いて統計モデルを構築し,モデルの結果から
推薦結果を得る手法
• SVD, LDA, Naïve Bayesなど
• 利点・欠点
– メモリベースは取り扱いやすく,結果の解釈もしやすいが,潜在的
な要素を扱えなかったり,データのスパース性という問題を抱え
る.
– モデルベースでは潜在的な要素を扱ったり,データのスパース性
を解消出来るなどの利点も多いが,計算時間が膨大になるケース
や,新規データの追加が難しいケースもあり,専門的な背景がなけ
れば扱うのが非常に困難であるという問題もある.
- 18. 2.ユーザ体験を重視したシステムの
評価
• オンライン評価とオフライン評価
– 推薦システムの評価は一般にオフライン評価で行われる
• 3年分のECサイトのデータがある.1年分のデータを使って残り2
年のユーザの行動をどの程度再現できたか?
• 新規ユーザに対して人気なアイテムと評価が別れるアイ
テムを推薦するとユーザ満足度が高くなる(Rashid et al.
2002)
– 推薦していないのにユーザはすごく精度が高いと評価する
– ユーザモデルも作りやすい
• 推薦対象でないものを結果リストに差し込む(Ziegler et
al. 2005)
– ユーザはその結果が個人に最適化されていない事を認識はする
が,差し込まれた量が全体の30%程度であれば差し込まれた方を
好む
- 19. 3.推薦システムにおける説明性
• アルゴリズムが洗練されて正しいことより,近い友人が薦めているという説明の
ほうが効果がある (Herlocker et al. 2000)
• 多様性を計算するよりタグをつけて多様に見せるほうが効果がある (Vig et al.
2009)
• 説明性の7つの指標(Tintarev and Masthoff, 2007)
– Transparency
• どのようにシステムが動いているか?
– Scrutability
• どのようにすればシステムに誤りを伝えられるか?
– Trust
• ユーザのシステムに対する信頼性を高めることができるか
– Effectiveness
• ユーザの”良い”意思決定を助けることができるか?
– Persuasiveness
• ユーザの購入やアクションを促進することができるか?
– Efficiency
• ユーザの意思決定を早めることができるか?
– Satisfaction
• ユーザビリティや満足度を高めることができるか?
- 20. Gunosyでの実例
• 推薦結果への多様性の導入
– リスト内に同じような内容の記事が入る割合を減らした
• 登録時アンケートの導入と改善(明示的な情報獲得、説明性の向
上)
– SNSをあまり使わない使わないユーザが増えてきた.SNSの活性度に応じて
ユーザの継続率に差があった.
– SNSを持っていないユーザもいたため,登録しないで離脱するユーザも多
かった.
– 継続率をベースに評価し,十分に成熟した段階でメールアドレス登録を解禁
し,登録突破率を高め継続率を維持.
one_month_active_
rate
user_num
アルゴリズム変更
- 21. まとめ
• 推薦システムに関する技術進化は発展途上
– 近年diversityやnoveltyなどユーザ視点に立った評価方法が考慮され
るようになってきた
• しかし「どのぐらいのdiversityがよいか」などの指標はいまだ確率され
ていない
– 対象とするアイテムの領域によっても問題は異なる
• ニュースは最新の情報になるので,過去の情報を積み重ねた協調フィル
タリング的要素は使いにくい
• 不動産・車は一生のうちの購買回数が尐ないため参考となるデータを
ためにくい
– 基礎理論は研究領域で進歩しているので、その考えをベースにしな
がらチューニングを適切に行なっていく必要がある
• 何を指標にするかが大事.サービスによってことなる.推薦エンジンを入
れる、のではなく何を目的に推薦エンジンを入れるのか?
• 本当にその問題は推薦で解決すべき問題なのか?
• データ分析も推薦エンジンも手法ではなく目的が非常に重要.
魔法の杖があっても使い道が悪くては意味が無い