Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

TechTalk02 - Ceph Cluster Monitoring & Dashboard Overview

1,450 views

Published on

Ceph Cluster Monitoring & Dashboard Overview

Published in: Engineering
  • Be the first to comment

TechTalk02 - Ceph Cluster Monitoring & Dashboard Overview

  1. 1. Ceph Cluster Monitoring & Dashboard Overview 강성욱(Mail.swkang@gmail.com) Korea Ceph User Group Tech Talk / 2018. 12. 05.
  2. 2. Contents • Ceph Cluster Monitoring • Health Check • OSD Status / Monitoring • POOL Status / Monitoring • PG(PlacementGroup)_Status • CrushMap And CrushRule - DEMO • MGR(Prometheus_Plugin) + Prometheus + Grafana - DEMO • Ceph MGR Dashboard Overview(Mimic_Release) - DEMO
  3. 3. Demo_Architecture Host : Ceph-001 O S D O S D O S D ETH1 Host : Ceph-002 ETH1 Host : Ceph-003 ETH1 Public_Network | Link_Speed(10G) | 192.168.100.0/24 Host : Client (KRBD_Mount) ETH1 Public_Network | Link_Speed(10G) | 192.168.100.0/24 Ceph_Version : Mimic(13.2.2) / KRBD_Test Storage_Size : HDD 4TB X 4EA X 6HOST= 96TB / Replication(3) = 32TB RBD Pool Ceph-Deploy / Ntpd / Admin Mon.0 Mgr.0 Mon.1 Mgr.1 Mon.2 Mgr.2 ETH0 Host : Ceph-004~006 ETH1 ETH2 ETH2 ETH2 ETH2 ETH0 ETH0 ETH0 ETH0 Cluster_Network | Link_Speed(10G) | 192.168.200.0/24 O S D O S D O S D O S D O S D O S D O S D O S D O S D O S D O S D O S D O S D
  4. 4. Ceph_Cluster_Monitoring {Health Check} / 기본적인 Health_Check 방법으로, Cluster의 전체 데몬들의 상태 및 클러스터 구조의 확인이 가능합니다. • Command : ceph –s • 전체 클러스터의 데몬들의 상태와, Client / Recovery등의 요청을 받는 부분에 대한 상태 확인이 가능함.
  5. 5. Ceph_Cluster_Monitoring {OSD_Monitoring} / 전체 클러스터의 OSD(Disk)의 배치(CrushRule) 나, 가용량등의 상태를 확인할 수 있습니다. • Command : ceph osd df {tree} • 전체 OSD의 사용량/가용량 및 가중치(weight), PG갯수, CrushMap 까지 한눈에 확인이 가능합니다. • Command : ceph osd tree • 전체 OSD의 상태(UP/Down) CrushMap 상태를 확인할 수 있습니다.
  6. 6. Ceph_Cluster_Monitoring {Pool_Monitoring} / 각 Pool의 용량과, Replication, Crush 정책들에 대해 확인할 수 있습니다. • Command : ceph df {detail} • 전체 클러스터의 가용량 및 Pool이 사용하고 있는 용량 및 가용량 등에 대한 정보 확인이 가능합니다. • Command : ceph osd dump | grep pool • 전체 클러스터의 Pool에 대한 Replication_Size, PG갯수, Crush_Rule등의 환경값을 확인할 수 있습니다.
  7. 7. Ceph_Cluster_Monitoring {Pool_Monitoring} / 각 Pool의 용량과, Replication, Crush 정책들에 대해 확인할 수 있습니다. • Command : ceph osd pool stats • 전체 클러스터의 Pool에서 처리하고 있는 I/O를 확인하여, 운영에 참고할 수 있습니다.
  8. 8. Ceph_Cluster_Monitoring {PG_Status} / 각 Pool에 PG에 대한 OSD의 Placement Group(PG)의 분포와 문제점에 대해 알아봅니다. • Command : ceph pg dump ~~~~ awk~~~~ • Pool의 ID와 Replication. Placement Group갯수 등의 분포확인이 가능합니다.
  9. 9. MGR + Prometheus + Grafana / 1 {Plugin} / Ceph MGR의 Plugin 중의 하나인 Prometheus(과거 Ceph_Exporter가 했던)를 사용하여 모니터링을 구성 • Dashboard_URL : ommand : https://grafana.com/dashboards/7056
  10. 10. MGR + Prometheus + Grafana / 2 {Plugin} / Ceph MGR의 Plugin 중의 하나인 Prometheus(과거 Ceph_Exporter가 했던)를 사용하여 모니터링을 구성 • Dashboard_URL : ommand : https://grafana.com/dashboards/7056
  11. 11. Ceph-MGR(Dashboard)_Overview(Mimic) • Modular Python Backend (CherryPy), RESTful API • WebUI (Angular / Typescript / Bootstrap) • Inspired by / Derived from openATTIC UI • Basic Username / Password Authentication • SSL / TLS Support • All Features of Dashboard v1 from Master Branch • RBD Management • RGW Management • Config Settings Browser 출처 : Ceph Day Berlin 2018 / https://www.slideshare.net/LenzGr/managing-and-monitoring-ceph-ceph-day-berlin-20181112
  12. 12. Ceph-MGR(Dashboard)_Features(Nautilus) • Multiple users / roles • SSO (SAML 2) • Auditing • New Landing page • OSD Management (mark as down/out, OSD Settings) • Config Settings Editor • Ceph Pool Management (Create/Modify/Delete) • ECP Management • Embedded Grafana Dashboards (Ceph Metrics) 출처 : Ceph Day Berlin 2018 / https://www.slideshare.net/LenzGr/managing-and-monitoring-ceph-ceph-day-berlin-20181112
  13. 13. Ceph-MGR(Dashboard)_Screenshot • Login
  14. 14. Ceph-MGR(Dashboard)_Screenshot • Dashboard
  15. 15. Ceph-MGR(Dashboard)_Screenshot • OSD_Information
  16. 16. Ceph-MGR(Dashboard)_Screenshot • Pool_Information
  17. 17. Ceph-MGR(Dashboard)_Screenshot • RBD_Management
  18. 18. Ceph-MGR(Dashboard)_Screenshot • CephFS_Monitoring
  19. 19. Ceph-MGR(Dashboard)_Screenshot • RGW_User_Management
  20. 20. Ceph-MGR(Dashboard)_Screenshot • RGW_User_Management
  21. 21. DEMO
  22. 22. Q&A
  23. 23. END

×