Распределенное хранилище Ceph. Обзор и практические способы использования

on

  • 1,687 views

 

Statistics

Views

Total Views
1,687
Slideshare-icon Views on SlideShare
1,622
Embed Views
65

Actions

Likes
0
Downloads
6
Comments
0

3 Embeds 65

http://devday.2gis.ru 47
http://devday.ru 17
https://duckduckgo.com 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment
  • Новосибирск, ноябрь 2011

Распределенное хранилище Ceph. Обзор и практические способы использования Распределенное хранилище Ceph. Обзор и практические способы использования Presentation Transcript

  • Распределенноехранилище данных CEPH
  • Тезисы Мотивация. Зачем. Обзор технологии. Архитектура. Компоненты. Преимущества. Недостатки. Практическое использование.
  • Что важно? - Масштабирование * ТБ, ПТ, ББ * гетерогенность среды * отказоустойчивость * простота и надежность - Гибкость * объекты * блочные устройства * файловая система? * структуры данных - Дешевизна * no vendor-lock * низкая стоимость Гб * администрирование * отказоустойчивость
  • Время и деньги ВРЕМЯ - легкость управления - миграция - балансировка - масштабирование ДЕНЬГИ - гигабайт мало стоит - софт, а не железо - гетерогенность - опенсорс! низкий порог вхождения админа
  • Проблемы хранилищ - сложно - дорого - ненадежно - долго
  • CEPH - объекты большие * и маленькие - блочные устройства - файлы Монитор ceph-mon Хранилище ceph-osd Метадата (не нужна) ceph-mds AmazonS3 like RADOS-GW
  • CEPH? - Реплицируем N раз - Балансируем - Мигрируем - Восстанавливаемся Автоматически! Скорость сопоставима с обычными дисками!
  • CRUSH Это дерево! Алгоритм зависит от железа. - быстрый, - псевдорандомный, - настраиваемый. - Математика. Сложная! Восстановление - параллельно - many2many - нет hotspare
  • RADOS GW - RESTful - object=key - атомарно - идемпотентно - права доступа - балансировка
  • RBD - виртуальный диск - в ядре - qemu, kvm, libvirt
  • Client-toolsУтилиты - ceph API - python boto - java - C* - Block-device - rbd + kernel module - kvm, qemu, libvirt - все как обычно - почти RADOS - apache2 AmazonS3 & Openstack
  • CEPH и мы - фламп и фоточки. Планета? - хранилище “медленных” бекапов - shared KVM - разделяемый контент - дропбокс - ???
  • Аналоги - shared file systems - vendor solutions - на колене - elliptics yandex - Amazons3 - Openstack Не совсем!
  • Статус проекта- 12 разработчиков- инвестиции- ежедневные коммиты- мне кажется, у них забрали паспорта!
  • Недостатки тоже есть!- сыровато- мало функционала- необходимо четко планировать инфраструктуру- ???
  • В планах- гео-кластер* мастер, зоны, бекапы, все как у больших дядей- скорость и стабильность еще выше.- lock-manager over RBD- там столько всего наполеоновского!
  • Спасибо! Вопросы? http://ceph.co m