Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
サイバーエージェント
 アドテクスタジオの
  次世代データ分析基盤紹介
@db tech showcase Tokyo 2016
2016 July 13th
CyberAgent, Inc. All Rights Reserved
Agenda
・自己紹介
・サイバーエージェント、アドテクスタジオについて
・共通基盤構想前の紹介
・共通基盤構想 Hadoop編
・共通基盤構想 Log編
・将来の展望
自己紹介
Fumihide Nario
2011年5月よりサイバーエージェントグループのSGE管轄にて
インフラやソーシャルゲームの開発を担当
2014年4月からアドテク本部にて
多数の広告プロダクトのサーバー、ミドルウェア、データベースなどの...
株式会社サイバーエージェント
株式会社サイバーエージェント
1998年の創業以来、インターネットを軸に事業を展開し
現在では代表的なサービスである「Ameba」をはじめ、
スマートフォン向けに多数のコミュニティサービスやゲームを提供しています。
株式会社サイバーエージェント
アドテクスタジオ
アドテクノロジーのスペシャリストが集う場所
アドテクスタジオとは、サイバーエージェントグループのアドテクノロジー分野に
おけるサービス開発を行うエンジニアの横断組織です。
当社ではアドテクノロジー分野におけるサービスを多数提供...
アドテクスタジオ
… and more
サイバージェントのアドテク事業
日本一やさしいアドテク教室 (https://www.cyberagent.co.jp/ir/personal/adtech/)より抜粋
アドテクスタジオのインフラ環境
弊社がデータセンターにて管理している
オンプレミス環境・プライベートクラウド環境
※プライベートクラウドにはOpenStackを採用
Amazon Web Services環境
※DirectConnectでデー...
共通基盤構想前の環境
これまでの分析
各プロダクトで必要に応じて環境を構築して分析
・プログラムによる分析
・Hadoopを利用したMapReduce処理やSpark処理による分析
・Amazon Redshiftを利用した分析
・BigQueryを利用した分析
将...
Hadoop環境①
仕様を検討した結果HBaseが必要ということがわかり
急遽HBaseCon2015に参加したり
複数のディストリビューションを比較した結果
MapR Technologies社のMapR M7の導入を決めました。
以下はプレ...
Hadoop環境②
MapR環境のハードウェア
H/W:HP社 SL4540 Gen8
HDD:6TB x 60Disks(Data領域)
1Serverあたり0.36PBのデータをストア可能
・Google BigQueryを利用した分析
各サーバーのログをFluentdを経由してBigQueryにロード
BigQuery
必要に応じたアドホック分析
・Streaming insertすることでほぼリアルタイムで確認が可能
・他のD...
・Amazon Redshiftを利用した分析
各サーバーのログをFluentdを経由してRedshiftにロード
Redshift
多角度からの分析を定常的に行う環境で利用
・ログのスキーマ変更が多い、人が実際にSQLを実行する機会も多く、J...
Matrix
・Redshiftの元になっているactian社のMatrixを採用し利用が進んでいます
各サーバーのログをMaprFSにストアしMatrixの各NodeにNFS Mountした上で並列ロード
Redshiftとの比較
・S3から...
Matrix環境のハードウェア
H/W:Huawei社 FusionServer RH2288H V3
CPU:Xeon E5-2667 v3 x 2
SSD:1.6TB x 24Disks
Memory:16GB x 24(pcs)=384G...
各プロダクトで必要に応じて環境を構築して分析
・プログラムによる分析
・Hadoopを利用したMapReduce処理やSpark処理による分析
・Amazon Redshiftを利用した分析
・BigQueryを利用した分析
+MapR(Map...
振り返ってみると・・・
ところが…自由に選択できる結果
・他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた
・バージョンアップが手軽にできず、古いバージョンのまま動き続けていた
・それぞれのデータの形式が異なり、共通化が難...
共通基盤構想
Hadoop編
共通化プロジェクト始動
例えば
Hadoop環境の共通化前の状況
Distribution:Apache Hadoop,CDH,MapR
Resource Management:Yarn,MR1,Mesos
共通化する上で考えるポイント
・安定...
共通Hadoop環境構想
+
OpenStack sahara
・Openstack上でEMRのような
 データ処理サービスを実現できるコンポーネント
・Dashboard も提供されており
 Hadoop 環境を容易に構築することができる
・各種ベンダーの Hadoop ...
OpenStack sahara
ただし・・・・苦労する点も多い
・そもそも日本での事例がほぼ無いので情報が少ない
・各種ベンダーの plugin は最新の version に対応していない
・そもそも各種ベンダーのサポート対象外のものも・・・...
OpenStack sahara
このままだと sahara は使えない・・・・・ので
共通 Hadoop 環境で使えるようにするために、各種 plugin を独自にカスタマイズ
しています。
・MapR の Secure Cluster に対...
共通Hadoop環境構想
OpenStackのSahara Pluginを利用しSpark実行環境を構築
データストアとしてHDFS用のClusterをオンプレミスで作り
連携する
+
構成理由
・OpenStackをすでに利用していることによ...
ディストリビューション検討
考えるポイント
・安定稼働できる(冗長化)
・物理コストが低い(ハードウェア、ライセンス)
・運用コストが低い(構築、運用)
・移行コストが低い(動作させる既存ジョブ)
・マルチテナントに対応できる(プロダクト単位で...
CDH
・冗長構成可能(ライセンス不要)
・Sahara Pluginでカスタムして動かすのは難易度が高い
・マルチテナントはkerberos認証を利用して可能
・既存環境からの移行コストが低い
ディストリビューション検討
様々な既存の環境から...
Spark実行環境用OpenStackスペック
H/W: Huawei X6800 (4U Chassis) x 12
Huawei XH620 x 96
CPU Xeon E5-2680 v3
12(Core) x 2(HT) x 2(CPU...
Spark実行環境用OpenStack Flavor
インスタンスタイプ
6Core
(MEM 28.8GB SSD 50GB)
12Core
(MEM 57.6GB SSD 100GB)
24Core
(MEM 115.2GB SSD 200...
Command Line Tool
実際に利用する事を考えると手動でClusterの起動・停止や
都度Jarファイルを新しいClusterにもってきてspark-submit
なんて事はしたくないですよね?
Jarファイル等を置くClient用...
選択の自由度があがった結果として顕在化した問題点
他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた
バージョンアップが手軽にできず、古いバージョンのまま動き続けていた
それぞれのデータの形式が異なり、共通化が難しくなってい...
共通基盤構想 Log編
それぞれのデータの形式が異なり、共通化が難しくなっていた
 サーバーのローカルに一度出力したログをfluentdで一定間隔で送り付ける方式が多数で
 インスタンスのダウン時にログが取り出せない問題
Log Format問題
そうだ、Log St...
Log Streaming基盤構想
各システム
ログをkafkaに投げてもらい、データストア用の HDFS Clusterに格納する
将来の展望
Project Ganesha
各システム
次のフェーズでMatrixとの連携予定
Project Ganesha 今後の提供予定
サービス監視 個々の監視+サービスとしての監視
DataFlow データ並列処理モデル
MetaStore データの対応情報を管理
Schema Registry スキーマ管理
Docker環境
サイバーエージェント アドテクスタジオ
Tech Blog 始めました!
https://adtech.cyberagent.io/techblog/
一緒にアドテクスタジオを盛り上げてくれる方
絶賛募集中です
https://www.cybe...
Upcoming SlideShare
Loading in …5
×

[db tech showcase Tokyo 2016] B15: サイバーエージェント アドテクスタジオの次世代データ分析基盤紹介 by 株式会社サイバーエージェント 成尾 文秀

3,586 views

Published on

Published in: Technology
  • Be the first to comment

[db tech showcase Tokyo 2016] B15: サイバーエージェント アドテクスタジオの次世代データ分析基盤紹介 by 株式会社サイバーエージェント 成尾 文秀

  1. 1. サイバーエージェント  アドテクスタジオの   次世代データ分析基盤紹介 @db tech showcase Tokyo 2016 2016 July 13th CyberAgent, Inc. All Rights Reserved
  2. 2. Agenda ・自己紹介 ・サイバーエージェント、アドテクスタジオについて ・共通基盤構想前の紹介 ・共通基盤構想 Hadoop編 ・共通基盤構想 Log編 ・将来の展望
  3. 3. 自己紹介 Fumihide Nario 2011年5月よりサイバーエージェントグループのSGE管轄にて インフラやソーシャルゲームの開発を担当 2014年4月からアドテク本部にて 多数の広告プロダクトのサーバー、ミドルウェア、データベースなどの構築、運 用からデータ分析基盤などインフラ全般を担当 https://speakerdeck.com/fumihide https://www.facebook.com/fumihide.nario @FumihideNario
  4. 4. 株式会社サイバーエージェント
  5. 5. 株式会社サイバーエージェント 1998年の創業以来、インターネットを軸に事業を展開し 現在では代表的なサービスである「Ameba」をはじめ、 スマートフォン向けに多数のコミュニティサービスやゲームを提供しています。
  6. 6. 株式会社サイバーエージェント
  7. 7. アドテクスタジオ アドテクノロジーのスペシャリストが集う場所 アドテクスタジオとは、サイバーエージェントグループのアドテクノロジー分野に おけるサービス開発を行うエンジニアの横断組織です。 当社ではアドテクノロジー分野におけるサービスを多数提供しています。 これまでは、各子会社を通じサービス開発をしていましたが、 開発効率の向上、各サービスの技術力および精度強化を目的に、 アドテクノロジーにかかわるサービスの開発部門の横断組織として、 「アドテクスタジオ」を設立しました。 開発体制を強化するほか、エンジニアの技術力向上をサポートする環境づくり や、新たな制度の導入などを行っています。 https://adtech.cyberagent.io/ より抜粋
  8. 8. アドテクスタジオ … and more
  9. 9. サイバージェントのアドテク事業 日本一やさしいアドテク教室 (https://www.cyberagent.co.jp/ir/personal/adtech/)より抜粋
  10. 10. アドテクスタジオのインフラ環境 弊社がデータセンターにて管理している オンプレミス環境・プライベートクラウド環境 ※プライベートクラウドにはOpenStackを採用 Amazon Web Services環境 ※DirectConnectでデータセンターと接続 Google Cloud Platform環境 ※VPNでデータセンターと接続 ※Interconnectでの接続を予定
  11. 11. 共通基盤構想前の環境
  12. 12. これまでの分析 各プロダクトで必要に応じて環境を構築して分析 ・プログラムによる分析 ・Hadoopを利用したMapReduce処理やSpark処理による分析 ・Amazon Redshiftを利用した分析 ・BigQueryを利用した分析 将来的にPBクラスのデータの分析基盤が 必要となるプロダクトが現れた(2015年) しかも…2ヶ月にはリリース
  13. 13. Hadoop環境① 仕様を検討した結果HBaseが必要ということがわかり 急遽HBaseCon2015に参加したり 複数のディストリビューションを比較した結果 MapR Technologies社のMapR M7の導入を決めました。 以下はプレスリリースにも出していますが採用のポイントです。 各々を別システムとして持つ必要が無いため、データの移動も不要で運用性が高い。 業界スタンダードのNFSインターフェース やHBaseアプリケーション・インターフェースを備えるため、使 い易く、かつベンダーロックインされない。 NFSインターフェースを持ち、ランダムリード・ライト可能なMapRファイルシステムにより、データの出し 入れが容易となりNASとしても活用可能 。 MapRファイルシステムの優れたパフォーマンスによりハードウェアリソースが最小限で済み、コスト効 果が高い。
  14. 14. Hadoop環境② MapR環境のハードウェア H/W:HP社 SL4540 Gen8 HDD:6TB x 60Disks(Data領域) 1Serverあたり0.36PBのデータをストア可能
  15. 15. ・Google BigQueryを利用した分析 各サーバーのログをFluentdを経由してBigQueryにロード BigQuery 必要に応じたアドホック分析 ・Streaming insertすることでほぼリアルタイムで確認が可能 ・他のDWHからの移行ではなくBigQueryを利用する上で新規で作成 ・基本的にスキーマに変更が少なくJOINも少ない
  16. 16. ・Amazon Redshiftを利用した分析 各サーバーのログをFluentdを経由してRedshiftにロード Redshift 多角度からの分析を定常的に行う環境で利用 ・ログのスキーマ変更が多い、人が実際にSQLを実行する機会も多く、JOINも多様される ・小さいインスタンスタイプも含め100Node以上利用(2015年10月時点)
  17. 17. Matrix ・Redshiftの元になっているactian社のMatrixを採用し利用が進んでいます 各サーバーのログをMaprFSにストアしMatrixの各NodeにNFS Mountした上で並列ロード Redshiftとの比較 ・S3からのロードができない、JSONまわりの一部関数など一部Redshiftにしかない機能がある ・マネージドサービスではないので運用面はハードウェア含めて必要 ・インスタンスタイプに縛られずハードウェアが選定できる ・元々Redshiftではコスト面からデータ量を減らしていたりししたが  オンプレミスで用意することで必要なだけデータをロードできるようになった。 ・インスタンス費用を気にして使わないときに停める必要がなくなった ・データもMapRFS側に保存することでS3のコストを削減
  18. 18. Matrix環境のハードウェア H/W:Huawei社 FusionServer RH2288H V3 CPU:Xeon E5-2667 v3 x 2 SSD:1.6TB x 24Disks Memory:16GB x 24(pcs)=384GB Matrix環境
  19. 19. 各プロダクトで必要に応じて環境を構築して分析 ・プログラムによる分析 ・Hadoopを利用したMapReduce処理やSpark処理による分析 ・Amazon Redshiftを利用した分析 ・BigQueryを利用した分析 +MapR(MapRFS, MapRDB etc)という選択肢が増えた 振り返ってみると・・・ +Matrixという選択肢が増えた
  20. 20. 振り返ってみると・・・ ところが…自由に選択できる結果 ・他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた ・バージョンアップが手軽にできず、古いバージョンのまま動き続けていた ・それぞれのデータの形式が異なり、共通化が難しくなっていた ・1時間に1回や1日に1回しか利用しないサーバーを常に起動させていることにより  リソースの無駄使いが発生していた 各プロダクトで自由に決められる選択肢が増えた!
  21. 21. 共通基盤構想 Hadoop編
  22. 22. 共通化プロジェクト始動 例えば Hadoop環境の共通化前の状況 Distribution:Apache Hadoop,CDH,MapR Resource Management:Yarn,MR1,Mesos 共通化する上で考えるポイント ・安定稼働できる(冗長化) ・物理コストが低い(ハードウェア、ライセンス) ・運用コストが低い(構築、運用) ・移行コストが低い(動作させる既存ジョブ) ・マルチテナントに対応できる(プロダクト単位で制限)
  23. 23. 共通Hadoop環境構想 +
  24. 24. OpenStack sahara ・Openstack上でEMRのような  データ処理サービスを実現できるコンポーネント ・Dashboard も提供されており  Hadoop 環境を容易に構築することができる ・各種ベンダーの Hadoop 環境が plugin で提供されている  CDH / MapR / Ambari / etc … ・共通 Hadoop 環境では最新の OpenStack Mitaka を採用
  25. 25. OpenStack sahara ただし・・・・苦労する点も多い ・そもそも日本での事例がほぼ無いので情報が少ない ・各種ベンダーの plugin は最新の version に対応していない ・そもそも各種ベンダーのサポート対象外のものも・・・ ・基本的な設定しかサポートされていない  例えば MapR のセキュアクラスタや CDH の Kerberos 対応とか不可能
  26. 26. OpenStack sahara このままだと sahara は使えない・・・・・ので 共通 Hadoop 環境で使えるようにするために、各種 plugin を独自にカスタマイズ しています。 ・MapR の Secure Cluster に対応 ・CDH の最新 version に対応 (5.7.1) ※plugin は 5.5.0 までしかない ・CDH の Kerberos 対応などなど
  27. 27. 共通Hadoop環境構想 OpenStackのSahara Pluginを利用しSpark実行環境を構築 データストアとしてHDFS用のClusterをオンプレミスで作り 連携する + 構成理由 ・OpenStackをすでに利用していることによるナレッジ ・マルチテナントが実現できる ・必要に応じて必要な台数だけ作り終わったら消すことができる Spark実行環境、データストアHDFS用のディストリビューションについて はCDHを採用しました。
  28. 28. ディストリビューション検討 考えるポイント ・安定稼働できる(冗長化) ・物理コストが低い(ハードウェア、ライセンス) ・運用コストが低い(構築、運用) ・移行コストが低い(動作させる既存ジョブ) ・マルチテナントに対応できる(プロダクト単位で制限) MapR ・C/C++での実装のため動作が安定している ・冗長構成可能(ライセンス必要) ・Sahara Pluginも最新版で比較的容易にカスタム可能 ・マルチテナントは標準のSecure ClusterとTicketで実現可能 ・既存環境からの移行コストが高い(MapRのJARと衝突する)
  29. 29. CDH ・冗長構成可能(ライセンス不要) ・Sahara Pluginでカスタムして動かすのは難易度が高い ・マルチテナントはkerberos認証を利用して可能 ・既存環境からの移行コストが低い ディストリビューション検討 様々な既存の環境から共通環境へのスムーズな移行を優先した結果、CDHを採用 考えるポイント ・安定稼働できる(冗長化) ・物理コストが低い(ハードウェア、ライセンス) ・運用コストが低い(構築、運用) ・移行コストが低い(動作させる既存ジョブ) ・マルチテナントに対応できる(プロダクト単位で制限)
  30. 30. Spark実行環境用OpenStackスペック H/W: Huawei X6800 (4U Chassis) x 12 Huawei XH620 x 96 CPU Xeon E5-2680 v3 12(Core) x 2(HT) x 2(CPU) x96(Node)=Total 4608Core MEM DDR4 RDIMM 16G x 16(pcs) x 96(Node) =     Total Memory 24.5TB LOCAL DISK SSD NETWORK 10G Network, Aggregation 40G Switch
  31. 31. Spark実行環境用OpenStack Flavor インスタンスタイプ 6Core (MEM 28.8GB SSD 50GB) 12Core (MEM 57.6GB SSD 100GB) 24Core (MEM 115.2GB SSD 200GB)
  32. 32. Command Line Tool 実際に利用する事を考えると手動でClusterの起動・停止や 都度Jarファイルを新しいClusterにもってきてspark-submit なんて事はしたくないですよね? Jarファイル等を置くClient用のサーバーはSaharaではなく 通常のOpenstackインスタンスとして構築(Dockerを利用) Clusterの起動・停止については、python-saharaclientをラップし hadoopまわりの設定を書き換える機能を追加した 独自のコマンドをgolangで作成しています。 例) fennec list Cluster一覧表示 fennec create -i CLUSTER_NAME Cluster構築&Hadoop接続設定 fennec reconfigure -i CLUSTER_NAME Cluster情報をもとにHadoop接続再設定 fennec delete -i CLUSTER_NAME Clusterの削除
  33. 33. 選択の自由度があがった結果として顕在化した問題点 他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた バージョンアップが手軽にできず、古いバージョンのまま動き続けていた それぞれのデータの形式が異なり、共通化が難しくなっていた 1時間に1回や1日に1回しか利用しないサーバーを常に起動させていることにより リソースの無駄使いが発生していた 選択の自由度があがった結果として顕在化した問題点 他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた バージョンアップが手軽にできず、古いバージョンのまま動き続けていた それぞれのデータの形式が異なり、共通化が難しくなっていた 1時間に1回や1日に1回しか利用しないサーバーを常に起動させていることにより リソースの無駄使いが発生していた 選択の自由度があがった結果として顕在化した問題点 他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた バージョンアップが手軽にできず、古いバージョンのまま動き続けていた それぞれのデータの形式が異なり、共通化が難しくなっていた 1時間に1回や1日に1回しか利用しないサーバーを常に起動させていることにより リソースの無駄使いが発生していた 選択の自由度があがった結果として顕在化した問題点 他のプロダクトのノウハウが活かせなくなり、管理・運用が複雑になっていた バージョンアップが手軽にできず、古いバージョンのまま動き続けていた それぞれのデータの形式が異なり、共通化が難しくなっていた 1時間に1回や1日に1回しか利用しないサーバーを常に起動させていることにより リソースの無駄使いが発生していた 実際、問題は解決できたのか? 実はMapRからCDHに変更したことで、構築が終わっていない部分がありテスト段階なんです・・・。 今後各プロダクトのHadoop環境については、段階的にSahara環境への移行を進めていく予定です。 振り返り
  34. 34. 共通基盤構想 Log編
  35. 35. それぞれのデータの形式が異なり、共通化が難しくなっていた  サーバーのローカルに一度出力したログをfluentdで一定間隔で送り付ける方式が多数で  インスタンスのダウン時にログが取り出せない問題 Log Format問題 そうだ、Log Streaming基盤を作ろう!
  36. 36. Log Streaming基盤構想 各システム ログをkafkaに投げてもらい、データストア用の HDFS Clusterに格納する
  37. 37. 将来の展望
  38. 38. Project Ganesha 各システム 次のフェーズでMatrixとの連携予定
  39. 39. Project Ganesha 今後の提供予定 サービス監視 個々の監視+サービスとしての監視 DataFlow データ並列処理モデル MetaStore データの対応情報を管理 Schema Registry スキーマ管理 Docker環境
  40. 40. サイバーエージェント アドテクスタジオ Tech Blog 始めました! https://adtech.cyberagent.io/techblog/ 一緒にアドテクスタジオを盛り上げてくれる方 絶賛募集中です https://www.cyberagent.co.jp/recruit/

×