SlideShare a Scribd company logo
Submit Search
Upload
Login
Signup
基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
Report
Keigo Suda
Follow
Future Architect, Inc. Japan - BigData Specialist
Feb. 16, 2016
•
0 likes
•
12,802 views
1
of
71
基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
Feb. 16, 2016
•
0 likes
•
12,802 views
Download Now
Download to read offline
Report
Internet
Hadoop/Sparkカンファレンス2016講演資料
Keigo Suda
Follow
Future Architect, Inc. Japan - BigData Specialist
Recommended
Hadoopの概念と基本的知識
Ken SASAKI
56K views
•
60 slides
並列分散処理基盤Hadoopの紹介と、開発者が語るHadoopの使いどころ (Silicon Valley x 日本 / Tech x Business ...
NTT DATA OSS Professional Services
3.4K views
•
38 slides
ちょっと理解に自信がないなという皆さまに贈るHadoop/Sparkのキホン (IBM Datapalooza Tokyo 2016講演資料)
hamaken
21.3K views
•
34 slides
はやわかりHadoop
Shinpei Ohtani
5.6K views
•
152 slides
Hadoopエコシステムの最新動向とNTTデータの取り組み (OSC 2016 Tokyo/Spring 講演資料)
NTT DATA OSS Professional Services
6K views
•
47 slides
世界一簡単なHadoopの話
Koichi Shimazaki
767 views
•
10 slides
More Related Content
What's hot
Yahoo! JAPANでのHadoop利用について
Yahoo!デベロッパーネットワーク
5.8K views
•
65 slides
NTTデータ流 Hadoop活用のすすめ ~インフラ構築・運用の勘所~
NTT DATA OSS Professional Services
6.3K views
•
31 slides
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
NTT DATA OSS Professional Services
20.8K views
•
35 slides
Hadoop 基礎
hideaki honda
1.9K views
•
12 slides
Hadoop ecosystem NTTDATA osc15tk
NTT DATA OSS Professional Services
6.4K views
•
68 slides
Apache Sparkの紹介
Ryuji Tamagawa
4.3K views
•
34 slides
What's hot
(20)
Yahoo! JAPANでのHadoop利用について
Yahoo!デベロッパーネットワーク
•
5.8K views
NTTデータ流 Hadoop活用のすすめ ~インフラ構築・運用の勘所~
NTT DATA OSS Professional Services
•
6.3K views
Apache Spark超入門 (Hadoop / Spark Conference Japan 2016 講演資料)
NTT DATA OSS Professional Services
•
20.8K views
Hadoop 基礎
hideaki honda
•
1.9K views
Hadoop ecosystem NTTDATA osc15tk
NTT DATA OSS Professional Services
•
6.4K views
Apache Sparkの紹介
Ryuji Tamagawa
•
4.3K views
ビッグデータ活用を加速する!分散SQLエンジン Spark SQL のご紹介 20161105 OSC Tokyo Fall
YusukeKuramata
•
3K views
分散処理基盤Apache Hadoopの現状と、NTTデータのHadoopに対する取り組み
NTT DATA OSS Professional Services
•
3.2K views
ビッグデータ関連Oss動向調査とニーズ分析
Yukio Yoshida
•
2.9K views
Hadoopトレーニング番外編 〜間違えられやすいHadoopの7つの仕様〜
Cloudera Japan
•
3.6K views
Cloudera World Tokyo 2015 Oracleセッション資料 「ビッグデータ/IoTの最新事例とHadoop活用の勘所」
オラクルエンジニア通信
•
2.7K views
Ansibleで構成管理始める人のモチベーションをあげたい! (Cloudera World Tokyo 2014LT講演資料)
NTT DATA OSS Professional Services
•
9.9K views
SQL on Hadoop 比較検証 【2014月11日における検証レポート】
NTT DATA OSS Professional Services
•
15.7K views
Pythonで入門するApache Spark at PyCon2016
Tatsuya Atsumi
•
5.8K views
HDFS新機能総まとめin 2015 (日本Hadoopユーザー会 ライトニングトーク@Cloudera World Tokyo 2015 講演資料)
NTT DATA OSS Professional Services
•
2.2K views
データ活用をもっともっと円滑に!~データ処理・分析基盤編を少しだけ~
NTT DATA OSS Professional Services
•
10K views
Apache Hadoop の現在と将来(Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Hadoop / Spark Conference Japan
•
7.2K views
Hadoop概要説明
Satoshi Noto
•
31.8K views
Apache Sparkのご紹介 (後半:技術トピック)
NTT DATA OSS Professional Services
•
26.1K views
基幹業務もHadoop(EMR)で!!のその後
Keigo Suda
•
2.1K views
Viewers also liked
スマートファクトリーを支えるIoTインフラをつくった話
Keigo Suda
13.9K views
•
38 slides
2016-02-08 Spark MLlib Now and Beyond@Spark Conference Japan 2016
Yu Ishikawa
9.6K views
•
40 slides
AWSマネージドサービスをフル活用したヘルスケアIoTプラットフォーム
Hiroki Takeda
8.4K views
•
67 slides
sparksql-hive-bench-by-nec-hwx-at-hcj16
Yifeng Jiang
10.5K views
•
65 slides
データドリブン企業におけるHadoop基盤とETL -niconicoでの実践例-
Makoto SHIMURA
13.5K views
•
39 slides
Spark 2.0 What's Next (Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Hadoop / Spark Conference Japan
8K views
•
34 slides
Viewers also liked
(20)
スマートファクトリーを支えるIoTインフラをつくった話
Keigo Suda
•
13.9K views
2016-02-08 Spark MLlib Now and Beyond@Spark Conference Japan 2016
Yu Ishikawa
•
9.6K views
AWSマネージドサービスをフル活用したヘルスケアIoTプラットフォーム
Hiroki Takeda
•
8.4K views
sparksql-hive-bench-by-nec-hwx-at-hcj16
Yifeng Jiang
•
10.5K views
データドリブン企業におけるHadoop基盤とETL -niconicoでの実践例-
Makoto SHIMURA
•
13.5K views
Spark 2.0 What's Next (Hadoop / Spark Conference Japan 2016 キーノート講演資料)
Hadoop / Spark Conference Japan
•
8K views
Maintainable cloud architecture_of_hadoop
Kai Sasaki
•
4.3K views
20161119 lt
aiko sato
•
2.1K views
未来太郎と未来花子
ming li
•
2.2K views
Spark CL
力世 山本
•
2.3K views
AI(強化学習)でロボットに学習させてみた
akmtt
•
3.2K views
Hadoop Conference Japan_2016 セッション「顧客事例から学んだ、 エンタープライズでの "マジな"Hadoop導入の勘所」
オラクルエンジニア通信
•
4.7K views
Future_Lt20160810
Yosuke Tanaka
•
2.7K views
40分でわかるHadoop徹底入門 (Cloudera World Tokyo 2014 講演資料)
hamaken
•
100.1K views
ログモニタリングツールを自作した話
Hiroki Takeda
•
3.5K views
1000台規模のHadoopクラスタをHive/Tezアプリケーションにあわせてパフォーマンスチューニングした話
Yahoo!デベロッパーネットワーク
•
6.9K views
分散処理基盤Apache Hadoop入門とHadoopエコシステムの最新技術動向 (オープンソースカンファレンス 2015 Tokyo/Spring 講...
NTT DATA OSS Professional Services
•
18.5K views
Awsでつくるapache kafkaといろんな悩み
Keigo Suda
•
6.2K views
Hive on Spark を活用した高速データ分析 - Hadoop / Spark Conference Japan 2016
Nagato Kasaki
•
16.6K views
リクルートライフスタイルの考えるストリームデータの活かし方(Hadoop Spark Conference2016)
Atsushi Kurumada
•
6.4K views
Similar to 基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
Apache drillを業務利用してみる(までの道のり)
Keigo Suda
2.7K views
•
31 slides
Drupal business consortiam in Japan:DBCJ 20140909
Hidekazu Ikeda
4.7K views
•
52 slides
Hack/HHVMの最新事情とメイン言語に採用した理由
Yuji Otani
2.7K views
•
85 slides
Red Hat の日本でできるグローバルな働き方
Tadayoshi Sato
2.8K views
•
37 slides
DXと名の付くプロジェクトで忘れてはならないこと
Hagimoto Junzo
1.1K views
•
50 slides
リクルート式Hadoopの使い方
Recruit Technologies
4.3K views
•
45 slides
Similar to 基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
(20)
Apache drillを業務利用してみる(までの道のり)
Keigo Suda
•
2.7K views
Drupal business consortiam in Japan:DBCJ 20140909
Hidekazu Ikeda
•
4.7K views
Hack/HHVMの最新事情とメイン言語に採用した理由
Yuji Otani
•
2.7K views
Red Hat の日本でできるグローバルな働き方
Tadayoshi Sato
•
2.8K views
DXと名の付くプロジェクトで忘れてはならないこと
Hagimoto Junzo
•
1.1K views
リクルート式Hadoopの使い方
Recruit Technologies
•
4.3K views
鹿駆動勉強会 青江発表資料
Takashi Aoe
•
1.4K views
Drupal Market in Japan @ 「DrupalCon 2016 New Orleans」情報交換会
Hidekazu Ikeda
•
595 views
ヘッドレスCMS調査 Strapiを試してみた
SosukeYamada
•
327 views
Drupal si 20160704
Hidekazu Ikeda
•
457 views
ライトプランで利用可能な分析基盤「IBM Analytics Engine (IAE)」とは
Kimihiko Kitase
•
2.3K views
B 6-3 jsls15-startup-shibata
chenree3
•
191 views
B 6-3 jsls15-startup-shibata
softlayerjp
•
2.7K views
Bussiness man drupal_20160704
Hidekazu Ikeda
•
1.6K views
[db tech showcase Tokyo 2016] B15: サイバーエージェント アドテクスタジオの次世代データ分析基盤紹介 by 株式会社サイ...
Insight Technology, Inc.
•
4.9K views
現場の”今”を知る、これからのビッグデータ分析・活用のすすめ
yuji suzuki
•
325 views
ソフトウェアエンジニアと高位合成
Kenichiro MITSUDA
•
2.2K views
BASEのアーキテクチャを育てる - 20221213 BASE Tech Talk
Tadashi Matsuda
•
142 views
社会のコードを、書き換えよう~エンジニア起点のNew Normalな働き方~
Hitachi, Ltd. OSS Solution Center.
•
1.6K views
I love SQL の僕がkintone のデータにSQLアクセスできる 製品をリリースするまでの道のり
CData Software Japan
•
1.8K views
基幹業務もHadoopで!! -ローソンにおける店舗発注業務へのHadoop + Hive導入と その取り組みについて-
1.
基幹業務もHadoopで!! Hadoop / Spark
Conference 2016 Future Architect Keigo Suda ローソンにおける店舗発注業務への Hadoop + Hive導入と その取り組みについて
2.
本発表を通してお伝えしたいこと Enterprise 基幹領域でのHadoop活用シーンへのヒント どういった課題をクリアするために? どんなことを検討/対応する必要がある? ※資料は後ほど公開致します
3.
目に焼き付けておきなさい。 Hadoopを使うってそういうことよ (綺麗なことばかりじゃないのよ)
4.
自己紹介 * 須田 桂伍(2012年入社) *
Technology Innovation Group シニアコンサルタント * インフラエンジニア~ソフトウェアアーキテクト * 最近はビッグデータ領域(情報系~基幹系)どっぷり 最近はQiita記事に技術ネタ投稿してます 直近の生きる目標(人生のマイルストン)
5.
Outline Introduction Architecture Team Development Conclusion
6.
Our Company
7.
フューチャーアーキテクト株式会社 (英文表記:Future Architect, Inc.) 設
立 上 場 資 本 金 代 表 者 売 上 高 社 員 数 オフィス : 1989年11月28日 : 2002年6月 東証1部 : 14億21百万円 : 代表取締役会長 CEO 金丸 恭文 : 連結344億24百万円、単体197億27百万円 (2014年12月期) : 連結1,587名、単体783名 (2014年12月末日現在) : 大崎 (本社)、大阪、鹿児島、福岡
11.
Introduction
12.
店舗発注業務のセンター化 発注時に利用するマスタ作成をセンタ集約 店舗毎に行われていたマスタデータ作成処理を集約 店舗からはAPI経由でマスタデータを参照
13.
店舗発注業務の裏側 ローソン全業務で利用されるマスタデータを 日次バッチで最新化 1 最新化された全業務マスタデータの更新差分を 各店舗へファイル連携 店舗へ更新分データのファイル連携 2 本部センター ファイル 連携基盤 ストアコンピュータ データ反映 発注端末 商品を発注 しますね 更新データ 全業務マスタデータ 日次バッチ処理 最新化 1 2
3 4 全業務マスタデータの最新化処理 連携されたファイルデータを各店舗にある ストコン内のDBへ反映する。 3 最新化されたマスタデータをもとに発注業務を実施 発注時の商品データ参照4 更新分データのDB反映処理
14.
店舗発注業務の裏側 ローソン全業務で利用されるマスタデータを 日次バッチで最新化 1 最新化された全業務マスタデータの更新差分を 各店舗へファイル連携 店舗へ更新分データのファイル連携 2 本部センター ファイル 連携基盤 ストアコンピュータ データ反映 発注端末 商品を発注 しますね 更新データ 全業務マスタデータ 日次バッチ処理 最新化 1 2
3 4 全業務マスタデータの最新化処理 連携されたファイルデータを各店舗にある ストコン内のDBへ反映する。 3 最新化されたマスタデータをもとに発注業務を実施 発注時の商品データ参照4 更新分データのDB反映処理 これまでは処理負荷を 各店舗に分散していたイメージ
15.
機能のセンター集約 店舗DB 発注業務 データ参照 加工処理 加工処理取込処理 取込処理 発注 端末 発注 端末 発注 端末 発注 端末 発注 端末 発注 端末 発注 端末 API API
API API API API API 全店舗分の発注業務に利用する マスタデータをバッチ処理(日次)で作成 全業務マスタDBから店舗毎に必要な マスタデータの更新差分をファイルで連携 これまで店舗毎に配信されていた 全店舗分の更新差分ファイルを連携 受信用DB 公開用DB 1. 全業務マスタDBから各店舗へ更新差分ファイルを配信 2. 店舗毎にDBへ差分反映後、発注利用マスタデータを作成 3. 作成されたマスタデータは発注業務時に発注端末から参照 1. 全業務マスタDBから全店舗分の更新差分ファイルを配信 2. 受信用DBへ差分反映後、全店舗分の発注利用マスタデータを作成 3. 作成されたマスタデータはREST APIで公開し、発注端末より参照 データ参照 発注業務 Before After
16.
しかしその壁も高い・・・ 店舗数増加への考慮 ピーク時の処理多重度 限られたバッチウィンドウ膨大なレコード件数
18.
18 20% 80% 全店舗分の処理ピークが重なる
19.
19 発注商品マスタ ~10億レコード PLUマスタ ~7億レコード 商品マスタ ~5億 約70マスタテーブル(数十億レコード)
20.
~1.5時間 店舗へのデータ公開バッチ処理開始 約4時間 リラン
23.
Distributed Architecture?
24.
Get Really Excited @
Midnight
26.
Volume Complexity Small Medium ~ Specially Complex Simple Complex ~ Enterprise Web Complex
Business Logic データ観点でざくっと考えてみる(私見) Very Large
27.
Contains Business Logic… Much Various
28.
データ観点でざくっと考えてみる(私見) Volume Complexity Very Large Specially Complex Simple Complex ~Complex
Business Logic Large Web
29.
機能のセンター集約 店舗DB 発注業務 データ参照 加工処理 加工処理取込処理 取込処理 発注 端末 発注 端末 発注 端末 発注 端末 発注 端末 発注 端末 発注 端末 API API
API API API API API 全店舗分の発注業務に利用する マスタデータをバッチ処理(日次)で作成 全業務マスタDBから店舗毎に必要な マスタデータの更新差分をファイルで連携 これまで店舗毎に配信されていた 全店舗分の更新差分ファイルを連携 受信用DB 公開用DB 1. 全業務マスタDBから各店舗へ更新差分ファイルを配信 2. 店舗毎にDBへ差分反映後、発注利用マスタデータを作成 3. 作成されたマスタデータは発注業務時に発注端末から参照 1. 全業務マスタDBから全店舗分の更新差分ファイルを配信 2. 受信用DBへ差分反映後、全店舗分の発注利用マスタデータを作成 3. 作成されたマスタデータはREST APIで公開し、発注端末より参照 データ参照 発注業務 Before After
31.
候補サービス EMR Redshift RDS (AmazonEMR)
32.
アーキテクチャ案 WITH EMR WITH Redshift WITH
RDS 取込フェーズ 加工フェーズ 参照フェーズ Data Imort Data Export SQL Batch MapReduce Storede Procedure & SQL Batch Data Imort Data Export
33.
ざっと比較してみる EMR 分散処理による高スループット アーキテクチャ Redshift RDS(MySQL) ノード追加によるリソース拡張 豊富なHadoopエコシステム システム拡張性 耐障害性 (ノード障害時) 処理特性 費用調整 コアノード障害ならば処理継続可能 分散処理による高スループット アーキテクチャ ノード追加によるリソース拡張 同時実行クエリ数の制約 コスト面で大量ノードで組めないので 1台失った時のインパクトでかい 更新処理がマスタサーバに集中 リードレプリカにより参照処理のみ スケール可能 マスター障害時はスレーブのマス タ昇格まで処理受付不可 コアノードのインスタンスタイプが 豊富&台数による微調整が可能 インスタンスタイプが少ない&台数に よる微調整が難しい そもそも参照しかスケールしないし な・・・
34.
ざっと比較してみる EMR 分散処理による高スループット アーキテクチャ Redshift RDS(MySQL) ノード追加によるリソース拡張 豊富なHadoopエコシステム システム拡張性 耐障害性 (ノード障害時) 処理特性 費用調整 コアノード障害ならば処理継続可能 分散処理による高スループット アーキテクチャ ノード追加によるリソース拡張 同時実行クエリ数の制約 更新処理がマスタサーバに集中 リードレプリカにより参照処理のみ スケール可能 マスター障害時はスレーブのマス タ昇格まで処理受付不可 コアノードのインスタンスタイプが 豊富&台数による微調整が可能 インスタンスタイプが少ない&台数に よる微調整が難しい そもそも参照しかスケールしないし な・・・ コスト面で大量ノードで組めないので 1台失った時のインパクトでかい
35.
やってみた
36.
36 20% 80% 全店舗分の処理ピークが重なる
37.
37 発注商品マスタ ~10億レコード PLUマスタ ~7億レコード 商品マスタ ~5億 約70マスタテーブル(数十億レコード)
38.
やってみた クラスタへのデータロード マスタデータ作成 インポート (全件) SQLバッチ(HiveQL) クラスタからのデータオフロード 平均:約60分 平均:約16分平均:約16分 平均:約90分 コアノード:~30台 エクスポート (全件)
39.
やってみた
40.
Architecture Overview
41.
アーキテクチャ全体像 全業務 マスタDB EMRクラスタ受信用DB ファイル連携用 バケット ファイル取込 サーバ SQLバッチ(HiveQL) 公開用DB APIサーバ 過去データ蓄積用 バケット アップロード 画像データ REST API ・・・ バイナリ配置用 バケット バイナリデータはS3パスを 返却し直接取得させる 発注端末 発注端末
42.
3フェーズアーキテクチャ EMRはあくまで処理エンジン!! 得意な処理に専念させるための役割分担と機能配置 データ永続化層 データ整合性の担保 前処理の実施 データは永続化させない データ加工に専念 データ永続化層 データ公開/参照 受信用DB 公開用DBEMRクラスタ
43.
Processing
44.
アーキテクチャ全体像 全業務 マスタDB EMRクラスタ受信用DB ファイル連携用 バケット ファイル取込 サーバ SQLバッチ(HiveQL) 公開用DB APIサーバ 過去データ蓄積用 バケット アップロード 画像データ REST API ・・・ バイナリ配置用 バケット バイナリデータはS3パスを 返却し直接取得させる 発注端末 発注端末
45.
加工処理の設計ポイント クラスタ構成 様々な更新処理 処理の分散設計 処理リラン ワークフロー
46.
46 20% 80% 全店舗分の処理ピークが重なる クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー
47.
47 20% 80% 全店舗分の処理ピークが重なる ピーク時用クラスタ 常時用クラスタ クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー
48.
クラスタ構成 常時処理 ピーク時処理 UPSERT INSERT クラスタ起動 クラスタ停止 対象テーブルを 差分更新 対象テーブルを 洗い替え(日付断面) クラスタ構成 様々な更新処理
処理の分散設計 処理リラン ワークフロー 受信用DB 公開用DBEMRクラスタ受信用DB 公開用DB EMRクラスタ
49.
49 20% 80% 全店舗分の処理ピークが重なる ピーク時用クラスタ 常時用クラスタ クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー
50.
様々な更新処理 更新サーバ 常時用クラスタ テーブル全体の部分 更新が必要な処理を担当 ピンポイントな 更新処理を担当 対象データ種の ファイルが到着/反映 クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー 公開用DB 受信用DB より速い反映が必要なデータ更新を担当
51.
処理の分散設計 マスタ作成の処理粒度をどう調整するか どの粒度でマスタ作成処理(HiveQL)を並列に走らせるか 店舗毎に いっぺんにドーン 複数店舗をまとまりにして いっぺんにドーン 全店舗分を いっぺんにドーン ・・・ ・・・ クラスタ構成 様々な更新処理
処理の分散設計 処理リラン ワークフロー
52.
処理の分散設計 店舗毎に いっぺんにドーン 複数店舗をまとまりにして いっぺんにドーン 全店舗分を いっぺんにドーン ・・・ ・・・ リソース不足 リソース不足
スループット抜群 クラスタ構成 様々な更新処理 処理の分散設計 処理リラン ワークフロー マスタ作成の処理粒度をどう調整するか どの粒度でマスタ作成処理(HiveQL)を並列に走らせるか
53.
処理の分散設計 マスタA 分割後 マスタA 分割後 マスタA 分割後 マスタA ・・・ マスタB 分割後 マスタB 分割後 マスタB 分割後 マスタB 発注商品 マスタ 発注商品 マスタ 発注商品 マスタ 発注商品 マスタ マスタA マスタB ・・・・・・ SQL SQL SQL SQL SQL SQL 発注商品 マスタ 発注商品 マスタ 店舗コードを もとにハッシュ分散 500店舗単位で 分割され後続に続く クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー ・・・ ・・・ 全店舗分 500店舗単位 公開用DBEMRクラスタ受信用DB
54.
店舗コードによる振分&パーティショニング ・・・ 500店舗毎に36分割 ハッシュ分散UDF クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー
55.
店舗コードによる振分&パーティショニング ・・・ ハッシュ分散UDF 店舗コードでのパーティショニング (Dynamic Partitioning) クラスタ構成
様々な更新処理 処理の分散設計 処理リラン ワークフロー 500店舗毎に36分割 1つのテーブルにハッシュで散った 複数店舗分のデータが入っている 結合時には必ず店舗コードが必要
56.
処理リラン インポート (全件) SQLバッチ(HiveQL) エクスポート (全件) リトライ/リカバリ リトライ/リカバリ リトライ/リカバリ ・・・ ワーク1
ワークN アウトプットインプット HiveQL 各処理単位で冪等にさせる マスタ作成処理も割り切って頭からリカバリできる設計 リトライ/リカバリ クラスタ構成 様々な更新処理 処理の分散設計 処理リラン ワークフロー 公開用DB受信用DB 1マスタ作成処理=1SQLファイル 中間ワークの状態管理はしない
57.
ワークフロー 処理命令はSDK経由で実行 EMRのStepではあくまでクラスタのプロビジョニング(Chefで実行)にのみに特化 コア マスター ・・・ 処理実行 スクリプト HiveQL 実行スクリプト HiveQL ワークフローサーバ コア コア コア SDK
hive -f ${HIVEQL_FILE} ¥ --hivevar PG_ID=${PG_ID} ¥ --hivevar VERSION_YMD=${VERSION_YMD} ¥ --hivevar TEMPO_GROUP_CD=${TEMPO_GROUP_CD} ¥ >> ${LOG_FILE} 2>1 クラスタ構成 様々な更新処理 処理の分散設計 処理リラン ワークフロー
58.
おまけ:Sqoopではまった話 MySQLへのダイレクトエクスポートで日本語が文字化け クラスタ構成 様々な更新処理 処理の分散設計
処理リラン ワークフロー こらっ(^ ^)
59.
Team Development
60.
いつも通りの開発を!! 開発者にミドルウェア(Hadoop)の存在を意識させない仕組みづくり チーム開発ですっごく考えたこと どう品質をどう担保するか どう開発生産性をあげるか * RDBでの開発に慣れたエンジニアでもいつも通りの開発ができる * Hadoop/Hiveのクセを意識せずに開発ができる *
HiveQLの品質担保をいかに効率的に実施していくか * Hiveのチェック制約の弱さをどのようにカバーするか
61.
チーム開発の全体像 起動時に開発DB からデータをステップ でインポート コーディングはHue エディタにて実施 HiveQLは単体テスト &回帰テストを実施 コーディング規約をも とした開発/レビュー 開発者
62.
チーム開発の全体像 起動時に開発DB からデータをステップ でインポート コーディングはHue エディタにて実施 HiveQLは単体テスト &回帰テストを実施 コーディング規約をも とした開発/レビュー 開発者
63.
Hiveでのコーディング MapReduceを意識させない規約づくり 開発者間の品質のばらつきを押さえるべく、ポイントは規約化
64.
HiveのユニットテストとCI Hiveだってしっかりテストしなきゃ!! HiveQL Test PG Input Data Output
Data 回 帰開 発 日次で定期実行 エクセルでテストデータを 管理しながらのコーディング Hiveのチェック制約機能の弱さを頻繁なテストでフォロー
65.
Hiveリソースによる区分・定数管理 区分値/定数管理もHiveで!! 設計書を正とした管理(納品資料駆動開発!!) 区分/定数管理表 hiverc HiveQL
66.
パラメータも同様に管理 区分/定数管理表 hiverc Hiveパラメータ&UDF登録もエクセルで! 下回りの設定も設計書を正とした管理(Infrastructure as
納品資料!!)
67.
Need More Consideration
68.
今後より検討が必要なポイント クラスタ起動 Blue Green クラスタのメンテをどうするか 発注商品マスタ 作成ジョブ 優先的に処理をさせたい リソーススケジューリングどうしよ EMRのレイヤでどう対応できるかがポイント クラスタのメンテや業務の重要度に応じたリソーススケジューリング
69.
Conclusion
70.
まとめ:基幹領域の適用シーンをもう一度考える 基幹領域だからといってHadoopを避ける理由はない(選択肢はRDBだけじゃない) 全てをHadoopで置き換えるのではなく、まずは重たいバッチ処理を部分的に切り出すよ うなはじめ方でノウハウをためるのがいいかも
Hadoop(HDFS)をベースとしてエコシステムは進化しているので、導入したHadoop基 盤をベースに様々なワークロードに対応可能 Enterprise