Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

モノタロウの商品データ連携について

1,856 views

Published on

2016-04-22 MonotaRO TechTalk #1 の講演資料です。
モノタロウが取り扱う900万点の商品の情報に様々なキャンペーン情報を加味し、Solrによる検索と連動してユーザに提供し続けているインデクサシステムの現状と課題についてお話しします。

Published in: Software
  • Be the first to comment

モノタロウの商品データ連携について

  1. 1. モノタロウの 商品データ連携について IT部門Web APIグループ 中山洋一 2016.04.22 MonotaRO TechTalk #1
  2. 2. お話しする内容 MonotaRO の商品検索システムの インデックス処理の話をします • システム構成 • 具体的なSolrの利用方法 • 運用上の課題
  3. 3. 私の立ち位置 中山 洋一 / MonotaRO Web APIグループ • 商品データの基幹-Web連携を主に担当 – 基幹システム: 商品部門、物流部門からの入力 – Webシステム: ECサイトでユーザに提示 経歴 • 2015/06 MonotaRO入社 – Webサービスの経験なし • 2000年ごろから OSS contributorとして活動 – FreeBSD, Wanderlust, libupnp
  4. 4. Solrを用いた商品検索 商品画像、商品名、価格、出荷目安、特長など
  5. 5. 商品データの連携 • 表側: • 裏側:
  6. 6. システム構成(表側) • フロント開発者が「どう見せるか」に集中 できるように • APIでロジックの詳細を隠蔽、性能担保 • 一部のバックエンドとして Solr を利用
  7. 7. システム構成(裏側) • 商品データを整形してSolrに入力 • 表側から参照されるサーバに配備 • ユーザが直接ふれない部分 – 今日はこちらについて話す
  8. 8. 前提 これから話すSolrの利用例の背景 • 販売価格が日単位で変わる →力技で全部作り直し(実装をシンプルに) • コアをまたいでのデータの依存 →なるべくタイムラグなしで新しい情報を公開
  9. 9. インデクシング shell script と Python で実装 • 商品データの取り込みと整形 – ローカルにDBスナップショットを作成 – Solrに渡す構造に整形 • 整形したデータをSolr(M)に送信 – XML生成してHTTP POST
  10. 10. 商品データの取り込みと整形 • 日付指定でDBの差分ダンプを取得 • ローカルのDBに挿入 • SQLで schema.xml に沿うよう整形 – テーブル結合して情報をまとめる – 価格や出荷目安を計算
  11. 11. Solr(M) への送信 Solr core (テーブル) ごとに • 全削除 • XML生成とSolrへの送信 • コミット
  12. 12. 全削除 http://solr-master:8983/solr/core-x/update にXMLデータをHTTP POST リクエストパラメータに stream.body= で指定してGETでも可 <delete> <query>*:*</query> </delete>
  13. 13. Solr(M)に送信 http://solr-master:8983/solr/core-x/update にXMLデータをHTTP POST <add> <doc boost="0.1"> <field name="id">1</field> <field name="product_name">綿特日本一軍手600g(キナリ10ゲージ)</field> <field name="feature">10ゲージ、2本編みにより編み目が細かく泥、油などの異物が入り 込みにくくなっています。着け具合も柔らかくフィット感のある軍手です。</field> <field name="sales_price">259</field> ... </doc> ... </add>
  14. 14. Solr(M)に送信 mutiprocessing.Process を利用して並列処理 • DBから読み込んで XML ファイルを書き出し – IndexerのCPUを消費 • ファイルから XML を読み込んで Solr に送信 – Solr(M)のCPUを消費
  15. 15. コミット docsPending に積みあがったデータを反映 ここまでの処理が成功していたら http://solr-master:8983/solr/core-x/update?commit=true でインデックスに反映 万が一異常発生した時には http://solr-master:8983/solr/core-x/update?rollback=true でロールバックしつつ開発者に通知する(発動したことはない)
  16. 16. レプリケーション rsync レプリケーションを利用 • solr/scripts/ 以下に入っている • README.txt より: These scripts are no longer actively maintained, improved, or tested, but they have been left in the source tree for use by legacy users who are satisfied with their basic functionality.
  17. 17. レプリケーション(1) コアごとに • snapshooter (M) ... snapshot生成 • rsyncd-start (M) ... rsyncd 起動 • snappuller (S) ... rsync で snapshot を取得 • rsyncd-stop (M) ... rsyncd 停止 →スレーブに新しいインデックスを転送 (まだ公開しない)
  18. 18. レプリケーション(2) コアごとに • snapinstaller (S) … インデックスに反映 →タイミングをはかって実行、情報公開 – 日付の切り変わりに合わせて – コア間のタイムラグを小さく
  19. 19. 直面している課題 商品数増加にともない処理時間が伸びる 取り扱い終了した商品も含め、1000万レコード超 • 日付が変わったころに反映したい →たまに日付をまたいでしまう • 業務時間内に更新された情報を反映したい →開始を早められない
  20. 20. 日々の対処 基本路線 – なるべくコストをかけない – なるべく複雑化させない 具体的な対処としては – サーバのスケールアップ – 並列実行の調整 いたちごっこであるものの、わりとなんとかなっている
  21. 21. 残っている課題 • インデックス時間との戦いがいたちごっこ – コストと効果を見つつ小さなトライを繰り返し • 本番相当のテストサーバがない – スケールアップの弊害 – チューニングが本当に効くか事前に試せない
  22. 22. まとめ • レコード数が増えても安定して稼動できてる • システムの裏側に関してSolrのメンテナンス コストはほぼかかっていない • Solrにデータ投入する部分のメンテナンスも ほどほどのコストでできている • 表側の対応によりリソースをかけられている

×