3. Эволюция ИТ
2003 2007 2010 2030
ИТорганизацияИТинфраструктурарезультатыИТАрхитектура
2000
CIO
VP (curate IT)
ИТ сервис
провайдер
Chiefs of Departments:
• Kirill BARANOV for Operations
• Leonid BARANOVSKY for CARGO
• Valery SUBBOTIN for Development
JSC “Russian Railways” IT Organisation Structure
CIO
Alexey ILLARIONOV
CIO
Alexey ILLARIONOV
Purchasing Operations Development
TRANSINFORM
Oleg LATUSHKIN
TRANSINFORM
Oleg LATUSHKIN CARGO
CARGO
IVC
Sakhalin Railways
IVC
Sakhalin Railways
.
.
17
.
.
Passenger
Michail BEREZKA
Passenger
Michail BEREZKA
SAP (ASU FR & TR)
Vadim MOSKALENKO
SAP (ASU FR & TR)
Vadim MOSKALENKO
Main Computing Center
Valery VISHNIAKOV
MCC Moscow
MCC Moscow
IVC
Kaliningrad Railways
IVC
Kaliningrad Railways
The Company incorporated 17 territorial branches
(listed bellow from West to East):
1. Kaliningrad Railways - Kaliningrad
2. Oktober Railways - Saint-Petersburg
3. Moscow Railways - Moscow
4. South-Eastern Railways - Voronezh
5. North Caucasus Railways - Rostov-on-Don
6. Northern Railways - Yaroslavl
7. Gorky Railways - Nyzhny Novgorod
8. Kuibishev Railways - Samara
9. Privolzhsk Railways - Satatov
10. Sverdlovsk Railways - Ekaterinburg
11. South Urals Railways - Chelyabinsk
12. West Siberian Railways - Novosibirsk
13. Krasnoyarsk Railways - Kasnoyarsk
14. Eastern Siberian Railways - Irkutsk
15. Zabaikal Railways - Chita
16. Far Eastern Railways - Khabarovsk
17. Sakhalin Railways - Yuzhno-Sakhalinsk
Chiefs of Departments:
• Kirill BARANOV for Operations
• Leonid BARANOVSKY for CARGO
• Valery SUBBOTIN for Development
JSC “Russian Railways” IT Organisation Structure
CIO
Alexey ILLARIONOV
CIO
Alexey ILLARIONOV
Purchasing Operations Development
TRANSINFORM
Oleg LATUSHKIN
TRANSINFORM
Oleg LATUSHKIN CARGO
CARGO
IVC
Sakhalin Railways
IVC
Sakhalin Railways
.
.
17
.
.
Passenger
Michail BEREZKA
Passenger
Michail BEREZKA
SAP (ASU FR & TR)
Vadim MOSKALENKO
SAP (ASU FR & TR)
Vadim MOSKALENKO
Main Computing Center
Valery VISHNIAKOV
MCC Moscow
MCC Moscow
IVC
Kaliningrad Railways
IVC
Kaliningrad Railways
The Company incorporated 17 territorial branches
(listed bellow from West to East):
1. Kaliningrad Railways - Kaliningrad
2. Oktober Railways - Saint-Petersburg
3. Moscow Railways - Moscow
4. South-Eastern Railways - Voronezh
5. North Caucasus Railways - Rostov-on-Don
6. Northern Railways - Yaroslavl
7. Gorky Railways - Nyzhny Novgorod
8. Kuibishev Railways - Samara
9. Privolzhsk Railways - Satatov
10. Sverdlovsk Railways - Ekaterinburg
11. South Urals Railways - Chelyabinsk
12. West Siberian Railways - Novosibirsk
13. Krasnoyarsk Railways - Kasnoyarsk
14. Eastern Siberian Railways - Irkutsk
15. Zabaikal Railways - Chita
16. Far Eastern Railways - Khabarovsk
17. Sakhalin Railways - Yuzhno-Sakhalinsk
Поддержка бизнеса
Сложная, «Островная»
Эффективная, надѐжная
Унифицированная
Затрат Commodity-to-Utility Utility-to-Partner Enabler (IT=LOB)
Роль ИТ
Затраты Непредсказуемые Прозрачные Управляемые Эффективные
Отчѐтность Транзакции Аналитика (BI/BW)
Динамическое
моделирование
Hosting / Outsourcing
ГВЦ ИВЦИВЦ …17…
ГВЦ ИВЦИВЦ …17…
Development
Разработчики
Development
Разработчики
Гибкая,
динамическая
Service –
Oriented Approach
1 этап реформы 2 этап реформы 3 этап реформы Будущее
4. Подход к упрощению инфраструктуры
Сервер Массив
Питание и
охлаждение
Подключения
Консолидация
• Модульные и
интегрированные
компоненты
• Окруженные интеллектом
• Управляемые как один
Снижение времени и
затрат на построение и
эксплуатацию
Виртуализация
Ресурсы
LAN SAN
• Создание логических,
абстрагированных
подключений к LAN/SAN
• Разделяемый пул
серверов, массивов,
сетей и питания
Высокая
эффективность и
гибкость
использования
Задачи и политики
• Упрощение рутинных
задач и процессов для
экономии времени
• Общий контроль
Автоматизация
Высвобождение ИТ-
ресурсов для
поддержки бизнеса
5. Консолидация
вычислительных ресурсов
Традиционный подход к организации
вычислительных ресурсов Будущее IT систем
«Силосные башни» ресурсов (silo) =
отдельные разнородные «кучки» серверов
Фиксированная емкость и стоимость ресурсов
Низкая утилизация или перегруженность
Сложность инфраструктуры и низкая
адаптируемость
Виртуальная IT инфраструктура =
консолидированная и разделяемая
среда (pooled & shared)
Динамическое выделение
вычислительных ресурсов
Высокая утилизация ресурсов с
плавным наращиванием
Упрощение управления и гибкость
ERP, CRM, Web, ….
6. Консолидированное хранение данных
LAN
SAN
Преимущества консолидации:
Огромный потенциал поэтапного наращивании емкости (сотни Тб)
Гибкость в распределении дискового пространства
Унификация дисков, централизованный мониторинг, управление и защита
хранилища
Простота миграции серверов и систем хранения
7. Консолидация приложений
на примере VMWare Server
Консолидация нескольких операционных сред в пределах одного Intel-сервера
средствами VMWare ESX Server
Виртуальный
сервер 1
Виртуальный
сервер N
Физический сервер
HP ProLiant ( до 8 CPU)
………
9. VMware VirtualCenter
• Эффективное
использование ресурсов
аппаратных серверов
• Простота управления
многими серверами
• Отслеживание
доступности и
загруженности
• Управление
распределенными
серверами как единым
пулом ресурсов
VirtualCenter
Management
ESX Server 2
GSX Server 1
GSX Server 3
11. ИНФРАСТРУКТУРНАЯ МОДЕЛЬ
УправлениеБезопасностью
УправлениеСистемамииСервисами
Инженерные
сервисы
ЦОД
• ЦОД- Основной
• ЦОД- Резервный
Помещения Энергоснабжение Кондиционирование
Кабельное
хозяйство
Интегрированная система
управления и безопасности
Освещение
Клиенты и Офисы Офисы
Мобильные
клиенты
Центры
управления
Рабочие
станции
Инфраструктурные
сервисы
Платформа
разработки
Интеграционный Information
Integration
Enterprise
Service Bus
People
Integration
Processes
Integration
Инфраструктурный
Cluster
services
File
services
Print
services
Web
services
E-mail
services
Time
Sync
Базовыесервисы
платформы
Операционные Системы zOS LinuxWindowsUNIX
Специализи
рованные
Каналы связи
ЦОД-ЦОД
каналы
LAN ЦОДа
Внешние
каналы
SAN ЦОДа
Сервисы
коммуникации
Виртуализация
Storage
Virtualisation
Network
Virtualisation
HW
Hypervisors
SW
Hypervisors
Workstation
Virtualisation
Системы Хранения Disk Storage Tape Storage
Copy
Services
Backup
Services
Archive
Services
ILM
Services
Серверные платформы Mainframe RISC x86 HPC
Приклад
-ные
Бизнес логики ECMSCMCRMERP PLM
BW /
BI
HRAppl-x MDM
Баз Данных DB2 Oracle MSQL Прочие
12. 12
Архитектурные блоки ИМ
Инфраструктурные сервисы E-Mail
Groupware
Print Services
Интеграционный Message
Queueing
Web Plattform
Бизнес приложения SAP- Typical
Railroad System
EXPRESSCARGO
SAP- Revenue
& Income Acc.
Windows LinuxUNIXMainframe OS
X86RISCMainframe
Хранение данных ArchiveNAS SAN Storage
SAN
Базы данных Oracle
DB2 for
Mainframe
Каналы
связи
WAN -
Acceleration
DC-LAN
Ext.
Connections
File Services
Backup
Инфраструктурные
сервисы
Базовыесервисы
ЦОД Facilities
Main / Emergency
Power
DC-DC
Connection
Инженерная
инфраструктура
Офис Large Office Midsize Office Small Office Home Office
Mobile Office/
Employee
Cooling Physical Security
Програмные
сервисы
WAN
Name
Resolution
Storage
Virtualization
SW Hypervisor
HW Hypervisor
SAP- HR
Безопасность
Access Control
Intrusion
Detection
Global
Directory
Authorisation
Authentication
Content
Filtering
Policy
User Admin
Encryption
Системы
управления
Отражены для полноты картины и без
дальнейшего описания в документе.
Отражены на верхнем
уровне
Операционные системы и
програмные гипервайзеры
Серверные платформы и
аппаратные гипервайзеры
Освещены в отдельных
документах
Fault
Management
Server
Monitoring
Event
Management
Application
Monitoring
Configuration
Management
Backup and
Recovery
Performance
Management
Network
Monitoring
13. 13
Основные положения
инфраструктурной модели (ИМ)
Два продуктивных ЦОД в Москве и Екатеринбурге, каждый из
которых состоит из двух физических ЦОД, в Санкт-Петербурге
логический ЦОД с функциями эталонного тестирования.
Масштабируемая архитектура – архитектурные блоки. Опирается на
существующие в РЖД аппаратно/программные платформы и
решения.
Высокая доступность (99,99%) – синхронная репликация данных и
кластерные решения. Обеспечивает устойчивость к отказам
компонентов и локальной аварии/катастрофе ЦОД.
Катастрофоустойчивость – асинхронная репликация данных в
другой продуктивный ЦОД. Обеспечивает устойчивость к
региональной катастрофе.
Обеспечивает поэтапный переход к финальному состоянию.
Обеспечивает возможность реализации решения высокой
доступности и катастрофоустойчивого решения для текущего
состояния приложений АСУ ПП, АСУ ГП и АСУ ФР2.
14. CBU
CoD
LAN
SAN
SYSPLEX
НАСМР
CBUCBU
CoD CoD
Синх
LAN
SAN
CBUCBU
CoD CoD
LAN
SAN
CBUCBU
CoD CoD
НА+Local
Disaster
HA+Local
Disaster
Здание 2Здание 1
Здание 1
Здание 2Здание 1
БД1 БД2
БД2
БД1 БД2
БД3
БД3
Синх
Синх
SYSPLEX
НАСМР
SYSPLEX
НАСМР
2-10 km
2-10 km
1 km
ЕЦОД
МЦОД
СПЦОД
Асинхр
Асинхр
Асинхр
Архитектура обеспечения
высокой доступности и
катастрофоустойчивости
БД2
БД 1
БД1
БД3
Здание 2
15. 15
Непрерывная
доступность /
восстановление
после аварий
Непрерывная
доступность данных на
региональном уровне и
восстановление после
катастроф на больших
расстояниях
Непрерывная
доступность данных
в ЦОД
Восстановления
после катастроф на
больших расстояниях
Необходимый уровень обеспечения
бесперебойной работы для организаций
Семейство предложений GDPS
непрерывная
доступность данных
Один центр обработки
данных
Приложения активны
GDPS®/PPRC
HyperSwap
Manager
Автоматическое
восстановление при
отказе узла или
системы хранения
данных
Без потерь данных
Два центра обработки
данных
Системы активны
GDPS/ PPRC
HyperSwap Manager
GDPS/PPRC
Автоматическое
восстановление
после аварий
«секунды»
потерянных данных
Два центра обработки
данных
GDPS/GM
GDPS/XRC
Доступность данных
без потерь данных
поддержка больших
расстояний
Три центра обработки
данных
GDPS/MGM
GDPS/MzGM
A B
C
16. 16
Требуемое время восстановления работоспособности (RTO)
15 мин. 1-4 ч. 4 -8 ч. 8-12 ч. 12-16 ч. 24 ч. Дни
Стоимость
Непрерывная доступность
Быстрое восстановление
Резервное копирование
/восстановление
Восстановление с ленты на резервной площадке
2
Восстановление
с ленты 1
Лента
Диск
ПОрепликации
УправляющееПО
Сеть
Сервисы
Автоматизация
Инфраструктура
3
Электронное хранилище, удаленная лента
4
Копирование на диск,
виртуальная лента
5 Программная репликация (LVM)
6 Ручное восстановление с зеркалированием дисков
7 Автоматическое восстановление
с зеркалированием дисков
Требуемаяточкавосстановления(RPO)
секундыдни
Уровни решений катастрофоустойчивости
Уровень 7 рекомендуются для критически важных приложений (RТO до 6 часов)
Уровни 4 - 6 рекомендуются для приложений средней важности (RTO до 24 часов)
Уровни 1 - 3 рекомендуются для приложений низкой важности (RTO более 24 часов)
Недели
17. Защита данных и повышение
доступности
Резервное копирование
– снимки и клоны дисковых разделов (host- и storage-
based)
– резервное копирование на жесткие диски
– резервное копирование на ленту
– резервное копирование и архивирование на
магнитооптические диски
Репликация данных
– средствами приложений (host-based)
– средствами ПО репликации (host-based)
– средствами дисковых массивов (storage-based)
Автоматизация процессов развертывания ОС и приложений
Кластеризация вычислительных ресурсов
– локальная кластеризация (один дисковый массив)
– распределенная кластеризация (кампусные, метро-
кластеры, глобальные кластеры)
синхронная
асинхронная
18. VPLEX
VPLEX
HP, Sun, Microsoft,
Linux, IBM Oracle, VMware, Microsoft
Brocade,
Cisco
Brocade,
Cisco
HP, Sun, Hitachi, 3PAR, IBM, EMC
VPLEX
HP, Sun, Microsoft,
Linux, IBM Oracle, VMware, Microsoft
Brocade,
Cisco
Brocade,
Cisco
HP, Sun, Hitachi, 3PAR, IBM, EMC
21. Подход к обеспечению
георезервирования ЦОД
Наличие в удаленном ЦОД
персонала, эксплуатирующего
данную АС
Оптимальное распределение
ресурсов, необходимых для
резервирования
Резервирование АСУ ПП
по направлениям
МИВЦ −> СПбИВЦ, СПбИВЦ −> МИВЦ
Резервирование АСУ ГП
по направлениям
СПбИВЦ −> МИВЦ, МИВЦ −> ЕИВЦ,
ГВЦ −> ЕИВЦ, ЕИВЦ −> СПбИВЦ
Выбор направлений репликации данных
В соответствии с принятыми решениями по обеспечению
катастрофоустойчивости критически важных систем, разработана схема
реализации георезервирования
АСУ ГП и АСУ ПП:
1.Асинхронная репликация данных производится за счет использования
технологии, применяемой в дисковых массивах EMC Symmetrix – SRDF
(Symmetrix Remote Data Facility).
2.Передача реплик между ЦОД осуществляется по IP-сетям с
использованием коммутаторов FCoE, позволяющих также сжимать
передаваемые данные.
21
24. Проект внедрения без агентского
мониторинга на базе Tivoli
ЕКТ
МСК
СПБ
Объекты мониторинга
ИВЦ
Universal agentОбъекты мониторинга
ИВЦ
Сервер
мониторинга
АРМ
администратора
Хранилище данных
уровня ЦОД
Хранилище серверов
сбора данных
Сервер событий
Omnibus
Централизованное
Хранилище данных
Umon
Сервер сбора
данных ИВЦ 2
Universal agentUmon
Сервер сбора
данных ИВЦ 1
24