Андрей Вишняков 
25.11.2014 
© 2014 Cisco and/or its affiliates. All rights reserved. 
Виртуализация сетевой 
транспортной инфраструктуры
Network Function Virtualization (NFV) 
NAT 
VM 
Firewall 
VM 
SBC 
VM 
dDOS 
VM 
Virus Scan 
VM 
IPS 
VM 
DPI 
VM 
CGN 
VM 
Portal 
VM 
PCRF 
VM 
DNS 
VM 
DHCP 
VM 
BRAS 
VM 
SDN Ctrl. 
VM 
RaaS 
VM 
WLC 
VM 
WAAS 
VM 
CDN 
VM 
Caching 
VM 
NMS 
VM 
Переход от каблированияк Service Chaining 
Упрощение логистики и формирования ЗИП 
Динамическая масштабируемость 
Уменьшение времени развертывания сервисов с дней до минут 
Интеграция с существующими сетями
Содержание 
25.11.2014 
© 2014 Cisco and/or its affiliates. All rights reserved. 3 
 Cloud Services Router 1000V 
 Виртуальный 
IOS XR маршрутизатор 
 Сетевые приложения 
ASAvи vSCE 
 Cisco Modeling Labs
Cloud Services Router 1000V
Cisco Cloud Services Router (CSR) 1000V 
Cisco IOSXE в виртуальном форм-факторе 
IOS XE Cloud Edition 
 
Поддержка IOS XE функций на запросу заказчиков 
Независимость от инфраструктуры 
 
Нет привязки к аппаратным характеристиками серверов, поддержка ESXi, KVM, XenиHyper-V гипервизоров 
Гибкая производительность 
 
Производительность от 10Mbps до20 Gbpsпри задействовании от 1 до8 vCPU 
Гибкая лицензионная политика 
 
Ограниченные по времени действия и постоянные лицензии 
Программируемость 
 
Поддержка RESTfulAPI (наборOnePK), Netconf/Yang 
Сервер 
Гипервизор 
Виртуальный коммутатор 
OS 
App 
OS 
App 
CSR 1000V
Функционал и лицензии CSR 1000V 
Лицензия 
IOS-XE функционал 
Виртуализация 
IPBase 
BasicNetworking: BGP,OSPF, EIGRP, RIP, ISIS, IPv6, GRE, VRF-LITE, NTP, QoS 
Multicast: IGMP, PIM 
High Availability:HSRP, VRRP, GLBP 
Addressing: 802.1Q VLAN, EVC, NAT, DHCP, DNS 
Basic Security: ACL, AAA, RADIUS, TACACS+ 
Management: IOS-XE CLI, SSH, Flexible NetFlow, SNMP, EEM, NETCONF 
ESXi5.5 
XenServer6.1 
KVM (Ubuntu12.04 LTS, RHEV 3.1, RHEL 6.3) 
Hyper-V 2012 R2 
SEC 
IPBaseвключая … 
Advanced Security:Zone Based Firewall, IPSecVPN, EZVPN, DMVPN, FlexVPN, SSLVPN, GETVPN 
AppX 
IPBaseвключая … 
Advanced Networking: L2TPv3, BFD,MPLS, VRF, VXLAN 
ApplicationExperience: WCCPv2, AppXNAV, NBAR2, AVC, IP SLA 
Hybrid Cloud Connectivity: LISP, OTV, VPLS, EoMPLS 
Subscriber Management: PTA, LNS, ISG 
AX 
Весь доступный функционал
Позиционирование в сети CSR 1000V 
Дата Центр 
ASR 1000 
Корпорация B 
Корпорация A 
Филиал/ CPE 
IaaS Cloud 
Абонент A 
Абонент B 
PoP 
ASR 9000 
PE 
PE 
ASR 9000 
ASR 9000 
CSR 1000V 
CSR 1000V 
Фаза 1 -Cloud 
• 
Cloud инфраструктура-vCE/ vPE 
• 
Сетевые сервисы -VPN шлюз 
• 
Гибридные облака –L2/ L3 VPN связность 
Фаза 2 –SP граница 
• 
Сетевые сервисы –VPNшлюз, BRAS (NFV) 
• 
Функционал плоскости управления -Route Reflector, IP SLA 
CSR 1000V 
CSR 1000V 
Фаза 3 –CPE 
• 
vCPE/ Все сервисы на одной x86 
• 
Оркестрациясервисов 
CSR 1000V
Архитектура CSR 1000v 
 
Виртуальный IOS XE 
 
Control Plane и Data Plane работают на отдельных vCPU 
 
Bootflash: NVRAM: соответствуют областям в оперативной памяти, копируются с HDD 
 
Нет аппаратного криптографического ускорителя – используется Intel AES-NI набор инструкций 
 
Bootloader функционал реализован за счет GRUB 
 
Путь пакета через CSR 1000v 
1. 
Ethernet driver (вход) 
2. 
Rx поток 
3. 
PPE поток (обработка пакета) 
4. 
HQF поток (исходящий QoS) 
5. 
Ethernet driver (выход) 
Control Plane 
Forwarding Plane 
vNIC 
vCPU 
vMemory 
vDisk 
Physical Hardware 
CPU 
Memory 
Disk 
NIC 
Гипервизор (VMware / Citrix / KVM) 
Chassis Mgr. 
Forwarding Mgr. 
IOS 
Chassis Mgr. 
Forwarding Mgr. 
FFP Client / Driver 
FFP code 
Linux Container 
8
Взаимодействие виртуальной машины и гипервизора 
UCS 
Blade 
Blade 
Phyi/f 
Phyi/f 
CPU 
Core 
Core 
Hypervisor 
VM 
CSR1000V 
vCPU 
CPU 
Core 
Core 
vCPU 
vCPU 
vCPU 
Планировщик 
Vswitch 
port 
port 
Memory 
vMemTables 
VNIC 
VM 
CSR 1000V 
VNIC 
vMemTables 
 
Гипервизор абстрагирует и распределяет аппаратные ресурсы среди множества VM 
 
Алгоритм соответствия vCPUфизическим процессорам влияет на производительность 
 
Диспетчеризация vNICпо физическим интерфейсам может привести к потере пакетов/ джитеру 
 
Набор VMWareустановок влияет на распределение ресурсов: 
 
Кол-во vCPUнаVM 
 
Минимум циклов на vCPU/привязка vCPUк физическому ядру 
 
Балансировка трафика в vSwitch
 
IOS XE процессорные потоки в гостевой ОС привязаны к vCPU 
 
vCPUпотоки в свою очередь привязываются к физическим CPU ядрам с помощью настроек гипервизора 
CSR 1000v IOS XE потоки и vCPUассоциации 
CSRfootprint 
Control Plane 
DataPlane PPE 
Data Plane HQF 
Data Plane Rx processing 
1 
vCPU0 
2 
vCPU0 
vCPU1 
4 
vCPU0 
vCPU1 & 2 
vCPU3 
8 
vCPU0 
vCPU1-5 
vCPU6 
vCPU7
Модели I/Oи производительность 
NIC Driver 
Virtual NIC 
(VMXNET3) 
Аппаратная NIC 
RX Ring 
TX Ring 
Virtual NIC 
(VMXNET3) 
Аппаратная NIC 
RX Ring 
TX Ring 
Аппаратная NIC 
RX Ring 
TX Ring 
NIC driver 
NIC driver 
NIC Driver 
Virtual NIC 
(VMXNET3) 
Аппаратная NIC 
RX Ring 
TX Ring 
Virtual NIC 
(VMXNET3) 
Sereno ASIC 
HW Queues 
Paravirtualized 
Direct I/O 
UCS VM-FEX 
9 Gbps 
11.2 Gbps 
13.2 Gbps 
Результаты тестирования CEF 1500 байт коммутации на сервере 4 vCPU, ESXi5.5 
Hypervisor Virtual Switch
Single Root IO Virtualization -SR-IOV 
 
Одно физическое PCIeустройство эмулирует несколько отдельных PCIeадаптеров 
 
Позволяет виртуальной машине общаться напрямую с аппаратной составляющей минуя гипервизор 
 
Физические и виртуальные функции/элементы(PF/VF) 
 
PF: полнофункциональное PCIeустройство 
 
VF: PCIeбез конфигурируемых ресурсов 
 
Каждый PF/VF получает отдельный PCIeидентификатор, таким образом разделяется IO работа с памятью для VF 
 
Требуется поддержка в BIOS/Гипервизоре 
Поддерживается для IOS XE с релиза 3.13 
для 
ESXiиHyperV
vMotionдля VM-FEXс включенным DirectPathI/O 
Временный переход 
от 
DirectPathкстандартномуI/O 
•VM передает TCP поток(1500MTU) 
•UCS B200 M2 шасси с UCS VIC картой 
0 
2500 
5000 
7500 
10000 
19:06:19 
19:06:23 
19:06:27 
19:06:31 
19:06:35 
19:06:39 
19:06:43 
19:06:47 
19:06:52 
Mbps 
Time (secs) 
vMotionна второй хост 
1 сек перерыв трафика 
13
Интерпретация Loss Rate, потерь пакетов при измерении производительности виртуальных машин 
 
Результаты измерений производительности сильно разнятся в зависимости от выбора приемлемого уровня потерь пакетов. Например, можем выбрать 
 
Без потерь -> Non-Drop Rate (NDR) 
 
Не более 5-типакетов 
 
0.1% от PPS,частоты передачи пакетов 
 
Небольшое ослабление LR критерия приводит к значительному росту производительности 
 
Обычно тесты на производительность подразумевают потерю 5 пакетов(«прогрев» системы), а также интерполяцию результатов по нескольким 2-ух минутным тестам 
 
Если не указано иное 
2vCPU: производительность 670Mbps при 1% потерь 
2vCPU: производительность 384Mbps при0% потерь
Как определить производительность при заданном Loss Rate 
 
В ходе теста измеряем % потерь данных для различной нагрузки 
 
Нагружаем устройство -> наблюдаем потери -> уменьшаем нагрузку до тех пор пока потери не станут допустимыми 
 
НО! Сложно получить сходные результаты на множестве тестов 
 
Необходимо заранее договориться как интерпретировать результаты! 
 
Например: 
 
Наибольшая нагрузка при которой видим LR =0.01% -> 475 Mbps 
 
Нагрузка при которой LR всегда меньше 0.01% -> 374 Mbps 
 
Потери пакетов превышают допустимый уровень 0.01% при {445, 435, 414, 384} Mbps
Пиковая производительность CSR 1000v 
 
Одна виртуальная машина CSR 1000v способна обрабатывать 20 GbpsIPv4 CEF 
 
Конфигурация с 8 vCPU 
 
Также доступны конфигурации с 1, 2, 4 vCPU 
 
IOS XE 3.13содержит улучшения по производительности 
 
До 8 vCPUна VM 
 
ПоддержкаVM-Fex/Direct Path/VIC1280 c VmwareESXi 
 
Оптимизация HQF (исходящий QoS) 
 
Уменьшение процессов в виртуальной машине 
*Предварительная информацияна основе тестирования инженерного релизаIOS XE 3.13; Использовался UCS-B200-M3, E7-2690 с VM-Fex.
 
Постоянное улучшение производительности 
 
Внутренние доработки кода СSR1000V 
 
Поддержка большего количества vCPU 
 
Оптимизация настроек гипервизора 
 
Поддержка VM FexсDirect Path 
 
Поддержка Netmap 
 
Оптимизация компилятора 
 
VMFexс DirectPathI/O и привязкой VM к определенным CPU дает скачок в производительности 
 
В дополнении к постоянным характеристикам по потерям и задержкам пакетов 
Улучшение производительности CSR 1000v с каждым релизом ПО 
Up to IOS XE 3.12: B230-Base-M2, 128 GB RAM, CPU: Intel Xeon E7-2870 @ 2.40 GHz 
IOS XE 3.13: B200M3, 256GB RAM, CPU: Intel Xeon E7-2690 @ 3.0 GHz 
Traffic Generator : Spirent ( RFC-2544) 
Hypervisor : Vmware: ESXi5.5.0, 
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
 
ТестируетсяIOS XE 3.13 
 
Одновременно задействовано несколько функций, типовые конфигурации 
 
IMIX смесь пакетов 
 
Наблюдается минимальная потеря производительности для ACL+QoSпрофиля 
 
Ожидаемо NAT + IPSec приводит к максимальной деградации 
Производительность CSR 1000v для различных профилей на базе ESXiгипервизора 
Hardware: UCS C200 M2 : 2x Intel Xeon 2690 Sandy Bridge 2.90 Ghz8 cores, 16 threads 
Traffic Generator : Spirent ( RFC-2544) 
Hypervisor : Vmware: ESXi5.5.0, 
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
X86сервер 
Host-OS / 
KVM 
Qemu/ v-Host 
tap 
vSwitch(OVS) / Linux bridge 
NIC driver 
Guest-OS 
Virtio-net 
Guest-OS 
Virtio-net 
Qemu/ v-Host 
tap 
App 
App 
App 
App 
App 
App 
KVM+UbuntuОбзор архитектуры 
 
KVM+Ubuntuнабирают популярность 
 
Open source -> “дешевле чем VMWare” 
 
Гипервизор виртуализируетNIC сетевую карту для нескольких VM 
 
Гипервизор планирует выполнение I/O процессов на сервере 
 
Физически всего лишь один набор аппаратного обеспечения, т.е. порт, очереди на нем и т.д. 
 
1-N отношение между VM’ vNICи одним NICпортом 
 
Один vHost/VirtIOпроцесс на виртуальный интерфейс(vNIC)–> «узкое горлышко» для высоких скоростей передачи 
NIC port
 
Тестируется KVM+Ubuntuи IOS XE 3.13 
 
Результаты аналогичны ESXi: 
 
ACL+QoSдеградирует незначительно 
 
IPSec иNAT наиболее требовательная конфигурация 
 
Производительность незначительно отличается для 1/2/4 vCPUконфигураций 
 
Причина в размере Txbuffer 
 
Необходима ручная настройка параметров KVM для достижения максимальной производительности 
Производительность CSR 1000v для различных профилей на базе KVM гипервизора 
Hardware: UCS C220 M2 : 2x Intel Xeon E2690 Sandy Bridge 2.90Ghz 8 cores, 16 threads 
Traffic Generator : Spirent ( RFC-2544) 
Hypervisor : KVM Ubuntu 14.04 w/ netmap, 
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
Влияние тюнинга параметров KVMна производительность
VM 
SP Aggregation 
CSR 1000v в роли vPTA/ vLNSагрегатора 
 
Первая в отрасли реализация виртуального BNG (PTA/LNS) 
 
CSR 1000v переиспользуетIOS XE код от ASR 1000 
 
PTA / LNS функционал портированна виртуальную платформу 
 
Внедрения с числом сессий менее 4K на виртульнуюмашину 
 
1Gbps пропускная способность (фаза 1) 
 
Частота установления сессий 50-100CPS 
 
Поддержка PTA (PPPoE) и LNS профилей 
Абонент 
SP Ядро 
Дата Центр 
vPTA 
vLNS 
Поддержка начиная: 
IOS XE 3.13.1S (Окт. 2014)
Виртуальные машины 
CSR 1000v в роли vISG 
 
Virtual Intelligent Services Gateway (vISG) устанавливается как шлюз доступа, предоставляя абонентам IPoEфункционал аналогичный таковому на ASR1000 
 
Целевой группой являются внедрения с числом сессий менее 4K на виртуальную машину 
 
Для фазы 1 рекомендуемая производительность 1Gbps 
 
Частота установления абонентских сессий 50-100CPS 
 
vISGинициаторы сессий –DHCP, unclassified MAC 
Поддержка начиная: 
IOS XE 3.13.1S (Окт. 2014) 
Дата Центр 
vISG 
Indoor Hotspot 
Residential / Community Wi- Fi 
Metro Wi-Fi 
Wi-Fi Доступ
CSR1000v vBNGподдерживаемые профили 
Профиль 
vPTA 
vLNS 
vISG 
Тип сессии 
PPPoEoVLAN 
PPPoVLANoL2TP 
IPoEoVLAN 
Функционал 
Input/output ACL, ingress QoS(policing) / egress QoS(shaping), vrf-awareness, IPv4/IPv6 dual-stack, AAA, ANCP 
IPv4/IPv6,HQoS, Input/outputACL, dual-stack service and TC accounting, CoA Service Push 
DHCP, Unclassified MAC, HQoS, Input/output ACL, ISG TC, L4R, PBHK, Unauthenticated timeout, etc. 
vCPU 
2 vCPU 
Память 
8GB 
Кол-во сессий 
4K 
4K 
4K 
Рекомендуемаялицензия по производительности 
1Gbps 
1Gbps 
1Gbps
4000 сессий протестировано для каждого профиля 
0 
500 
1000 
1500 
2000 
2500 
3000 
3500 
4000 
4500 
5000 
CEF 
vIPoE 
IPoEoVLAN 
vBRAS 
PPPoEoVLAN 
vLAC 
PPPoEoVLAN 
vLNS 
PPPoEoVLAN 
Throughput in Mbits 
 
CEF профиль берется за точку отсчета 
 
IPoEсессии требуют меньше памяти по сравнению с PPPoE(аналогичноASR1000), отсюда и разница в производительности 
 
Производительность указана для 1450-байтных пакетов 
 
Каждый профиль был протестирован с 4000 активных сессий, трафик равномерно распределен по ним 
CEF vsvBNGпроизводительность CSR1000v
CSR1000v как BGP Route Reflector 
ASR1001 & ASR1002-X (8GB) 
ASR1001 & ASR1002-X (16GB) 
CSR1000v (8GB) 
CSR1000v (16GB) 
RP2(8GB) 
RP2 (16GB) 
ipv4 маршрутов 
7M 
13M 
8.5M 
24.8M 
8M 
24M 
vpnv4 маршрутов 
6M 
12M 
8.1M 
23.9M 
7M 
18M 
ipv6 маршрутов 
6M 
11M 
7.4M 
21.9M 
6M 
17M 
vpnv6 маршрутов 
6M 
11M 
7.3M 
21.3M 
6M 
15M 
BGP сессий 
4000 
4000 
4000 
4000 
8000 
8000 
CSR 1000v переиспользуетIOS XE код в части ASR 1000 Route Reflector функционала 
Виртуальные 
машины 
SP Агрегация 
Абонентский сайт 
SP Ядро 
Дата Центр 
vRR 
IOS XE 3.13.0S 
Июль2014
Облачный дата центр 
Шлюз 
Internet 
L2 домен 
Сервисы в дата центре 
Wireless AP 
Управление 
FW 
 
Упрощение домашней пользовательской инфраструктуры 
 
Расширение L2 домена до операторского дата центра 
 
Сервисы на базе инфраструктуры дата центра: NAT, FW, NAS, Автоматизация домашней сети,… 
 
Управление виртуальными машинами 
 
Управление сервисами 
Виртуальная абонентская инфраструктура vCPE
Виртуальный IOS XR маршрутизатор 
или 
Cisco IOS XRv
 
IOS XR поддерживается в x86 виртуальной среде 
 
Тоже самое программное обеспечение IOS XR, что работает на CRS и ASR9K маршрутизаторах, характеризующееся масштабируемой плоскостью управления и поддержкой: 
 
МикроядернойОС 
 
Модульного ПО 
 
Возможностью рестарта процессов 
 
Активации PIE и SMU патчейбез перезагрузки VM 
 
Аналогичный«железным» реализациям IOS XR набор функционала в области сигнальных протоколов, например, протоколов маршрутизации 
Виртуализация IOS XR= IOS XRv 
Гипервизор 
Full Standard 
IOS XR 
PI Binaries 
Виртуальная машина 
IOS XR 5.1.1
Стратегия виртуализации SP маршрутизатора 
Три категории приложений для виртуализации 
• 
Виртуализация Control Plane (виртуальный BGP Route Reflector) 
• 
Полностью виртуализированныймаршрутизатор (virtual Control + Data plane) 
• 
Разделение Control Plane иData Plane 
ВиртуальныйRoute Reflector 
IOSXRv 
IOSXRv 
Server / Hypervisor 
r 
Server Blade (Hypervisor) 
Virtual 
DP 
Полностью виртуальный маршрутизатор 
Доступно к заказу 
Стратегия Cisco: Разработать универсальную архитектуру физического, виртуального или гибридного маршрутизатора. IOS-XRvвзят за основу в роли плоскости управления для всех приложений 
CP:DP разделение 
Аппаратная передача данных и виртуальная плоскость управления 
Фокус этой презентации 
IOSXRv 
IOS XRv 
IOSXRv 
IOS XRv 
Virtual 
DP 
Virtual 
DP 
Virtual 
DP 
Виртуальный XR Dataplane 
Физический Dataplane 
Dataplane Control (DPC) 
IOS XRv 
Virtual 
XR DP 
Физический оптимизированный по стоимости Dataplane 
DPA 
DPA 
DPA
Разделение Control иData PlaneПодход к линейному масштабированию 
• 
Линейное масштабирование Data Plane за счет NPU 
• 
Масштабирование Control Plane за счет x86 CPU 
Compute 
Routers/Compute 
Router/LC 
Router/LC 
Текущий режим работы 
Целевая архитектура 
Control-Plane 
RP 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
Control-Plane 
RP 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
LC 
Data-Plane 
Data-Plane 
x86 servers 
x86 servers 
x86 servers 
x86 servers 
x86 servers 
Control-Plane 
… 
1 x CPU : N x LCs 
M x CPU : N x NPU
Дальнейшее развитие Cisco IOS XR (кодовое имя “Spirit”) 
Распределенная архитектура 
 
Масштабируемость, изоляция отказов, расширение за счет подключаемы модулей 
Современная OS инфраструктура 
 
Поддержка многоядерных 64-ех битных CPU, включая SMP, а также Open Source приложений 
Виртуализация 
 
ISSU, разделение Control и Admin плоскостей, упрощение SDR архитектуры 
ISSU и архитектура высокой доступности 
 
Поддержка Zero Packet Loss (ZPL) и Zero Topology Loss (ZTL) 
Управление отказами 
 
Локализация и устранение отказов с минимальными потерями работоспособности 
Доступно с IOS XR 5.0 наNCS6K 
 
Планируется к внедрению –NCS4K, ASR9K 
Hosted Apps 
Kernel (Linux, 64bit) 
Distributed Infra 
BGP 
OSPF 
PIM 
ACL 
QoS 
LPTS 
SNMP 
XML 
NetFlow 
XR Образ v1 
Kernel 
(Linux, 64bit) 
Kernel (Linux, 64bit) 
Distributed Infra 
BGP 
OSPF 
PIM 
ACL 
QoS 
LPTS 
SNMP 
XML 
NetFlow 
XR Образ v2 
Уровень виртуализации 
System 
Admin 
Kernel (Linux, 64bit)
Стандартный интерфейс между плоскостями управления и передачи данных 
• 
Новая архитектура IOS XR раздельных Control и Data Plane 
• 
Эволюция Spirit/XR 64-bit Linux операционной системы, то что мы называем виртуальным XRследующего поколения 
• 
XRvразделяет CP-DP путем создания DPC-DPA уровней 
 
DPC = Data Plane Controller, расположен на RP 
 
DPA = Data Plane Agent,расположен на линейной карте 
XRv 
DPC 
Dataplane 
DPA
Многообразие систем при переходе к раздельным плоскостям передачи данных и управления 
Автоматизация и управление сервисами 
SDN API –NetConf/ YANG, и т.д. 
Виртуальный XR Dataplane 
Физический Dataplane 
Dataplane Control (DPC) 
IOS XRv 
Virtual 
XR DP 
Аппаратный оптимизированный по стоимости Dataplane 
CP -DP API 
DPA 
DPA 
DPA
Data Plane 
Virtual 
Forwarder 
Data Plane 
Virtual 
Forwarder 
Data Plane 
Virtual 
Forwarder 
Data Plane 
Virtual 
Forwarder 
Data Plane 
Virtual 
Forwarder 
Логические маршрутизаторына базе x86 инфраструктуры 
Router 1 
L3 VPN 
Router 2 
L2 VPN 
Router 3 
Internet 
Массив х86вычислительных ресурсов 
IOS XRv 
Virtual 
Forwarder 
DPA 
DPC 
Currentlynot scheduledfordelivery. 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane
Логические маршрутизаторы и физические шасси линейных карт 
Physical 
Dataplane 
Slice 
Линейная карта| LC 
Линейная карта| LC 
Линейная карта| LC 
Линейная карта| LC 
Линейная карта| LC 
Физические шасси 
Router1 
L3 VPN 
Линейная карта| LC 
Линейная карта| LC 
Линейная карта| LC 
Массивx86 ресурсов (RP) 
Router 2 
Internet 
Router 3 
L2 VPN 
DPA 
DPC 
Currentlynot scheduledfordelivery. 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Control Plane 
IOS XRv 
Выделенная 
LC 
DPA 
DPC
Позиционирование виртуального IOS XR маршрутизатора 
2 
8 
32 
128 
512 
2048 
8192 
32768 
Gbps 
Virtual 
XR DP 
IOS XR VR 
ASR 9001 
ASR 9006 
ASR 9904 
ASR 9010 
ASR 9912 
ASR 9922
HV 
LXC 
UVF DP 
LXC 
XR CP 
LXC 
Admin 
LINUX 
TenGigE0/0/0 
GigE 0/0/1 
GigE 0/0/2 
MgmtEth0/0/1 
vswitch 
 
Основывается на Virtualized IOS-XR (Spirit) 
Маршрутизатор внутри виртуальной машины 
CP, DP & Admin модули внутри Linux Containers (LXC) 
LXC = Shared Kernel, отдельные kernel namespace (process/network) 
Плоскость передачи данных 
Virtual Forwarder (VF) 
XR комбинированная RP+LC функциональность 
DPA 
Архитектура XR виртуального маршрутизатора 
Виртуальная машина 
Data Plane 
Controller
Виртуальный XRvмаршрутизатор 
Universal Virtual Forwarder 
Набор сервисов 
• 
ACLs 
• 
uRPF 
• 
Marking, Policing 
• 
IPv4, IPv6, MPLS 
• 
Segment routing 
• 
BFD 
Что ожидают от IOS XRvмаршрутизатора? 
IOS XRv 
Сформулированные требования: 
 
20Gbps производительность для IMIX трафика с включенными сервисами (на одном сокете) 
 
т.е. 2x10GE порта 
 
PCIepass-through 
 
Гибкая балансировка нагрузки по нескольким ядрам CPU 
 
Высокопроизводительный QOS планировщик (TM) 
 
3-ехуровневый H-QOS 
 
Поддержка Fast Re-Route (LFA, FRR) 
 
Портируемый64битныйC-код, поддержка в будущем ARM платформ 
 
Общая кодовая база с Cisco nPowerX чипами 
Interface 
classification 
& FIB lookup 
Traffic 
Manager 
Forwarding & Features 
Иерархический QOS планировщик 
• 
20Gbps+ на одном ядре 
• 
64k абонентов 
• 
½ миллиона очередей 
• 
5000 policy-map 
Масштабируемый IPv4 иIPv6 FIB 
64бит 
операционная 
система
Коммутация данных на виртуальном IOS XR 
DPA 
 
Обрабатывает управляющие сообщения от/кDPC 
 
Обрабатывает punt / inject пакеты сетевых протоколов 
 
Выполняет сбор статистики и ее агрегацию 
UVF микрокод 
 
L2 классификация, Коммутация, QoS 
VPP 
 
Высокопроизводительная классификация и группировка сетевых пакетов в один пакет для обработки; балансировка 
DPDK 
 
Высокопроизводительные драйверы для передачи информации между виртуальной машиной и аппаратным обеспечением 
DPC 
SPP 
DPA 
Control 
Messages 
Stats 
Punt/Inject 
Dataplane 
UVF ucode 
Platform/ NPU Layer 
VPP 
DPDK 
Device Drivers 
Memory Management 
Сетевые 
интерфейсы 
VPP Nodes 
VPP nodes
Виртуализация сетевых приложений 
ASAvи vSCE
10G* 
5G 
Виртуальный DPI (vSCE) 
# Производительность при использовании Intel сетевой карты с DPDK иCPU скоростью 2.9 Ghz 
* Предположительно будет доступно Q2 2015 
Интерфейсы 
8x1G 
2x10G 
Максимально абонентов 
225,000 
450,000 
Число ядер CPU # 
10 
16 
TPS (Login/ Logout) 
300 
500 
VLinks 
2048 
2048 
РейтL4 потоков 
195,000 flows/sec 
390,000 flows/sec 
Доступно начиная: 
5.0.0 (Июль2014)
vSCE –пример HW конфигурации для 5G 
• 
Количество ядер: 10 @ 2.9 Ghz 
• 
Оперативная память: 32 GB 
• 
Сетевая карта: 8x1G 
Пример UCS конфигурации(UCS C220) 
UCSC-C220-M3L= 
UCS C220 M3 LFF w/o CPU, mem, HDD, PCIe, PSU, rail kit 
1 Unit 
UCS-CPU-E5-2667= 
2.90 GHz E5-2667/130W 6C/15MB Cache/DDR3 1600MHz/NoHeatSink 
2 Units 
UCSC-PCIE-IRJ45= 
Intel Quad GbEadapter 
2 Units 
UCS-MR-1X162RY-A= 
16GB DDR3-1866-MHz RDIMM/PC3-14900/dual rank/x4/1.5v 
2 Units 
UCSC-PSU-450W= 
450W power supply for C-series rack servers 
1 Unit
 
Полноценный ASA межсетевой экран в виртуальной форме 
 
Поддержка нескольких vCPUs(до4-ех) иvNICs(до10-ти)с VLAN тэгами(до200-т) 
 
Виртуализация делает ненужным поддержку Multiple-context режима 
 
Только Active/Standby failover резервирование; в будущем кластеризация 
 
Etherchannelинтерфейс должен быть сконфигурирован на NIC карте сервера 
 
Расширение использование ASA экранов 
 
ASA 1000v на границе виртуального дата центра 
 
Защита физических и VM коммуникаций на любых типах интерфейсов 
 
Routed и Transparent режимы работы 
 
Планируется поддержка VxLANкоммутации 
 
Рекомендация по использованию с ESXivSwitchи Nexus 1000v, в тоже время поддерживается работа и с KVM гипервизором(ASA 9.3.1) 
Обзор ASAv 
Поддержка с ASA 9.2(1) 
GA 9.3.2
ASAvПроизводительность и масштабируемость 
Метрика 
ASAv10 
ASAv30 
Stateful Inspection Throughput (Maximum) 
1 Gbps 
2 Gbps 
Stateful Inspection Throughput (Multi-Protocol) 
500 Mbps 
1 Gbps 
Concurrent Sessions 
100,000 
500,000 
Connections Per Second 
20,000 
60,000 
VLANS 
50 
200 
Cisco®Cloud Web Security Users 
150 
500 
3DES / AES VPN Throughput 
125 Mbps 
300 Mbps 
S2S IPSec IKEv1 Client VPN User Sessions 
250 
750 
Cisco AnyConnect®or Clientless User Sessions 
250 
750 
UC Phone Proxy 
250 
1000 
Протестировано 
 
UCS C260 M2 
 
UCS B200 M3 
 
Processor E5-2640 
Необходимо GHz: 
 
5GHz дляASAv10 @1Gbps 
 
13GHz дляASAv30 @2Gbps 
(включая ESX нагрузку) 
Лимиты по ресурсам: 
 
5 GHz on ASAv10 
 
20 GHz on ASAv30 
(ASAvперезагружается при нарушении)
«Виртуальная песочница» 
Cisco Modeling Labs
Cisco Modeling Labs –виртуальная лаборатория 
Многоцелевая расширяемая тестовая зона: 
 
Точная модель существующих сетей 
 
Использование реальных компонент (сетевых операционных систем) для прототипированияконфигураций 
 
Поддержка до сотен устройств в сети 
 
Возможность интеграции виртуальных и физических устройств в одну тестовую сеть 
Август 2014
Виртуальные операционные системы для Cisco Modeling Labs 
Идет в комплекте с 
Cisco Modeling Labs 
IOS 
В виртуальном форматеIOSv 
IOS XR 
В виртуальном формате 
IOS XRv 
IOS XE 
В виртуальном форматеCSR1000v 
Отдельные лицензии для Cisco Modeling Labs 
48
Cisco Modeling Labs Комплект поставки 
Поддержка дополнительных 
сетевых операционных 
систем в формате 
OVA/VMDK файлов 
49
Cisco Modeling Lab Принцип работы 
CML Интерфейс 
Транслятор команд 
«Срезы» топологии 
Конфигурация 
устройства 
Схема топологии 
Пакет данных –топология и конфигурации 
Виртуальные машины/ Коммутаторы 
2 
3 
4 
5 
6 
7 
8 
9 
A1-Console:17000 
A1-Aux:17001 
… 
1
CiscoRu Cisco CiscoRussia 
Ждем ваших сообщений с хештегом 
#CiscoConnectRu 
Пожалуйста, используйте код для оценки доклада 
1557 
Ваше мнение очень важно для нас 
Спасибо за внимание! 
25.11.2014 
© 2014 Cisco and/or its affiliates. All rights reserved.

Виртуализация сетевой транспортной инфраструктуры

  • 1.
    Андрей Вишняков 25.11.2014 © 2014 Cisco and/or its affiliates. All rights reserved. Виртуализация сетевой транспортной инфраструктуры
  • 2.
    Network Function Virtualization(NFV) NAT VM Firewall VM SBC VM dDOS VM Virus Scan VM IPS VM DPI VM CGN VM Portal VM PCRF VM DNS VM DHCP VM BRAS VM SDN Ctrl. VM RaaS VM WLC VM WAAS VM CDN VM Caching VM NMS VM Переход от каблированияк Service Chaining Упрощение логистики и формирования ЗИП Динамическая масштабируемость Уменьшение времени развертывания сервисов с дней до минут Интеграция с существующими сетями
  • 3.
    Содержание 25.11.2014 ©2014 Cisco and/or its affiliates. All rights reserved. 3  Cloud Services Router 1000V  Виртуальный IOS XR маршрутизатор  Сетевые приложения ASAvи vSCE  Cisco Modeling Labs
  • 4.
  • 5.
    Cisco Cloud ServicesRouter (CSR) 1000V Cisco IOSXE в виртуальном форм-факторе IOS XE Cloud Edition  Поддержка IOS XE функций на запросу заказчиков Независимость от инфраструктуры  Нет привязки к аппаратным характеристиками серверов, поддержка ESXi, KVM, XenиHyper-V гипервизоров Гибкая производительность  Производительность от 10Mbps до20 Gbpsпри задействовании от 1 до8 vCPU Гибкая лицензионная политика  Ограниченные по времени действия и постоянные лицензии Программируемость  Поддержка RESTfulAPI (наборOnePK), Netconf/Yang Сервер Гипервизор Виртуальный коммутатор OS App OS App CSR 1000V
  • 6.
    Функционал и лицензииCSR 1000V Лицензия IOS-XE функционал Виртуализация IPBase BasicNetworking: BGP,OSPF, EIGRP, RIP, ISIS, IPv6, GRE, VRF-LITE, NTP, QoS Multicast: IGMP, PIM High Availability:HSRP, VRRP, GLBP Addressing: 802.1Q VLAN, EVC, NAT, DHCP, DNS Basic Security: ACL, AAA, RADIUS, TACACS+ Management: IOS-XE CLI, SSH, Flexible NetFlow, SNMP, EEM, NETCONF ESXi5.5 XenServer6.1 KVM (Ubuntu12.04 LTS, RHEV 3.1, RHEL 6.3) Hyper-V 2012 R2 SEC IPBaseвключая … Advanced Security:Zone Based Firewall, IPSecVPN, EZVPN, DMVPN, FlexVPN, SSLVPN, GETVPN AppX IPBaseвключая … Advanced Networking: L2TPv3, BFD,MPLS, VRF, VXLAN ApplicationExperience: WCCPv2, AppXNAV, NBAR2, AVC, IP SLA Hybrid Cloud Connectivity: LISP, OTV, VPLS, EoMPLS Subscriber Management: PTA, LNS, ISG AX Весь доступный функционал
  • 7.
    Позиционирование в сетиCSR 1000V Дата Центр ASR 1000 Корпорация B Корпорация A Филиал/ CPE IaaS Cloud Абонент A Абонент B PoP ASR 9000 PE PE ASR 9000 ASR 9000 CSR 1000V CSR 1000V Фаза 1 -Cloud • Cloud инфраструктура-vCE/ vPE • Сетевые сервисы -VPN шлюз • Гибридные облака –L2/ L3 VPN связность Фаза 2 –SP граница • Сетевые сервисы –VPNшлюз, BRAS (NFV) • Функционал плоскости управления -Route Reflector, IP SLA CSR 1000V CSR 1000V Фаза 3 –CPE • vCPE/ Все сервисы на одной x86 • Оркестрациясервисов CSR 1000V
  • 8.
    Архитектура CSR 1000v  Виртуальный IOS XE  Control Plane и Data Plane работают на отдельных vCPU  Bootflash: NVRAM: соответствуют областям в оперативной памяти, копируются с HDD  Нет аппаратного криптографического ускорителя – используется Intel AES-NI набор инструкций  Bootloader функционал реализован за счет GRUB  Путь пакета через CSR 1000v 1. Ethernet driver (вход) 2. Rx поток 3. PPE поток (обработка пакета) 4. HQF поток (исходящий QoS) 5. Ethernet driver (выход) Control Plane Forwarding Plane vNIC vCPU vMemory vDisk Physical Hardware CPU Memory Disk NIC Гипервизор (VMware / Citrix / KVM) Chassis Mgr. Forwarding Mgr. IOS Chassis Mgr. Forwarding Mgr. FFP Client / Driver FFP code Linux Container 8
  • 9.
    Взаимодействие виртуальной машиныи гипервизора UCS Blade Blade Phyi/f Phyi/f CPU Core Core Hypervisor VM CSR1000V vCPU CPU Core Core vCPU vCPU vCPU Планировщик Vswitch port port Memory vMemTables VNIC VM CSR 1000V VNIC vMemTables  Гипервизор абстрагирует и распределяет аппаратные ресурсы среди множества VM  Алгоритм соответствия vCPUфизическим процессорам влияет на производительность  Диспетчеризация vNICпо физическим интерфейсам может привести к потере пакетов/ джитеру  Набор VMWareустановок влияет на распределение ресурсов:  Кол-во vCPUнаVM  Минимум циклов на vCPU/привязка vCPUк физическому ядру  Балансировка трафика в vSwitch
  • 10.
     IOS XEпроцессорные потоки в гостевой ОС привязаны к vCPU  vCPUпотоки в свою очередь привязываются к физическим CPU ядрам с помощью настроек гипервизора CSR 1000v IOS XE потоки и vCPUассоциации CSRfootprint Control Plane DataPlane PPE Data Plane HQF Data Plane Rx processing 1 vCPU0 2 vCPU0 vCPU1 4 vCPU0 vCPU1 & 2 vCPU3 8 vCPU0 vCPU1-5 vCPU6 vCPU7
  • 11.
    Модели I/Oи производительность NIC Driver Virtual NIC (VMXNET3) Аппаратная NIC RX Ring TX Ring Virtual NIC (VMXNET3) Аппаратная NIC RX Ring TX Ring Аппаратная NIC RX Ring TX Ring NIC driver NIC driver NIC Driver Virtual NIC (VMXNET3) Аппаратная NIC RX Ring TX Ring Virtual NIC (VMXNET3) Sereno ASIC HW Queues Paravirtualized Direct I/O UCS VM-FEX 9 Gbps 11.2 Gbps 13.2 Gbps Результаты тестирования CEF 1500 байт коммутации на сервере 4 vCPU, ESXi5.5 Hypervisor Virtual Switch
  • 12.
    Single Root IOVirtualization -SR-IOV  Одно физическое PCIeустройство эмулирует несколько отдельных PCIeадаптеров  Позволяет виртуальной машине общаться напрямую с аппаратной составляющей минуя гипервизор  Физические и виртуальные функции/элементы(PF/VF)  PF: полнофункциональное PCIeустройство  VF: PCIeбез конфигурируемых ресурсов  Каждый PF/VF получает отдельный PCIeидентификатор, таким образом разделяется IO работа с памятью для VF  Требуется поддержка в BIOS/Гипервизоре Поддерживается для IOS XE с релиза 3.13 для ESXiиHyperV
  • 13.
    vMotionдля VM-FEXс включеннымDirectPathI/O Временный переход от DirectPathкстандартномуI/O •VM передает TCP поток(1500MTU) •UCS B200 M2 шасси с UCS VIC картой 0 2500 5000 7500 10000 19:06:19 19:06:23 19:06:27 19:06:31 19:06:35 19:06:39 19:06:43 19:06:47 19:06:52 Mbps Time (secs) vMotionна второй хост 1 сек перерыв трафика 13
  • 14.
    Интерпретация Loss Rate,потерь пакетов при измерении производительности виртуальных машин  Результаты измерений производительности сильно разнятся в зависимости от выбора приемлемого уровня потерь пакетов. Например, можем выбрать  Без потерь -> Non-Drop Rate (NDR)  Не более 5-типакетов  0.1% от PPS,частоты передачи пакетов  Небольшое ослабление LR критерия приводит к значительному росту производительности  Обычно тесты на производительность подразумевают потерю 5 пакетов(«прогрев» системы), а также интерполяцию результатов по нескольким 2-ух минутным тестам  Если не указано иное 2vCPU: производительность 670Mbps при 1% потерь 2vCPU: производительность 384Mbps при0% потерь
  • 15.
    Как определить производительностьпри заданном Loss Rate  В ходе теста измеряем % потерь данных для различной нагрузки  Нагружаем устройство -> наблюдаем потери -> уменьшаем нагрузку до тех пор пока потери не станут допустимыми  НО! Сложно получить сходные результаты на множестве тестов  Необходимо заранее договориться как интерпретировать результаты!  Например:  Наибольшая нагрузка при которой видим LR =0.01% -> 475 Mbps  Нагрузка при которой LR всегда меньше 0.01% -> 374 Mbps  Потери пакетов превышают допустимый уровень 0.01% при {445, 435, 414, 384} Mbps
  • 16.
    Пиковая производительность CSR1000v  Одна виртуальная машина CSR 1000v способна обрабатывать 20 GbpsIPv4 CEF  Конфигурация с 8 vCPU  Также доступны конфигурации с 1, 2, 4 vCPU  IOS XE 3.13содержит улучшения по производительности  До 8 vCPUна VM  ПоддержкаVM-Fex/Direct Path/VIC1280 c VmwareESXi  Оптимизация HQF (исходящий QoS)  Уменьшение процессов в виртуальной машине *Предварительная информацияна основе тестирования инженерного релизаIOS XE 3.13; Использовался UCS-B200-M3, E7-2690 с VM-Fex.
  • 17.
     Постоянное улучшениепроизводительности  Внутренние доработки кода СSR1000V  Поддержка большего количества vCPU  Оптимизация настроек гипервизора  Поддержка VM FexсDirect Path  Поддержка Netmap  Оптимизация компилятора  VMFexс DirectPathI/O и привязкой VM к определенным CPU дает скачок в производительности  В дополнении к постоянным характеристикам по потерям и задержкам пакетов Улучшение производительности CSR 1000v с каждым релизом ПО Up to IOS XE 3.12: B230-Base-M2, 128 GB RAM, CPU: Intel Xeon E7-2870 @ 2.40 GHz IOS XE 3.13: B200M3, 256GB RAM, CPU: Intel Xeon E7-2690 @ 3.0 GHz Traffic Generator : Spirent ( RFC-2544) Hypervisor : Vmware: ESXi5.5.0, Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
  • 18.
     ТестируетсяIOS XE3.13  Одновременно задействовано несколько функций, типовые конфигурации  IMIX смесь пакетов  Наблюдается минимальная потеря производительности для ACL+QoSпрофиля  Ожидаемо NAT + IPSec приводит к максимальной деградации Производительность CSR 1000v для различных профилей на базе ESXiгипервизора Hardware: UCS C200 M2 : 2x Intel Xeon 2690 Sandy Bridge 2.90 Ghz8 cores, 16 threads Traffic Generator : Spirent ( RFC-2544) Hypervisor : Vmware: ESXi5.5.0, Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
  • 19.
    X86сервер Host-OS / KVM Qemu/ v-Host tap vSwitch(OVS) / Linux bridge NIC driver Guest-OS Virtio-net Guest-OS Virtio-net Qemu/ v-Host tap App App App App App App KVM+UbuntuОбзор архитектуры  KVM+Ubuntuнабирают популярность  Open source -> “дешевле чем VMWare”  Гипервизор виртуализируетNIC сетевую карту для нескольких VM  Гипервизор планирует выполнение I/O процессов на сервере  Физически всего лишь один набор аппаратного обеспечения, т.е. порт, очереди на нем и т.д.  1-N отношение между VM’ vNICи одним NICпортом  Один vHost/VirtIOпроцесс на виртуальный интерфейс(vNIC)–> «узкое горлышко» для высоких скоростей передачи NIC port
  • 20.
     Тестируется KVM+UbuntuиIOS XE 3.13  Результаты аналогичны ESXi:  ACL+QoSдеградирует незначительно  IPSec иNAT наиболее требовательная конфигурация  Производительность незначительно отличается для 1/2/4 vCPUконфигураций  Причина в размере Txbuffer  Необходима ручная настройка параметров KVM для достижения максимальной производительности Производительность CSR 1000v для различных профилей на базе KVM гипервизора Hardware: UCS C220 M2 : 2x Intel Xeon E2690 Sandy Bridge 2.90Ghz 8 cores, 16 threads Traffic Generator : Spirent ( RFC-2544) Hypervisor : KVM Ubuntu 14.04 w/ netmap, Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
  • 21.
    Влияние тюнинга параметровKVMна производительность
  • 22.
    VM SP Aggregation CSR 1000v в роли vPTA/ vLNSагрегатора  Первая в отрасли реализация виртуального BNG (PTA/LNS)  CSR 1000v переиспользуетIOS XE код от ASR 1000  PTA / LNS функционал портированна виртуальную платформу  Внедрения с числом сессий менее 4K на виртульнуюмашину  1Gbps пропускная способность (фаза 1)  Частота установления сессий 50-100CPS  Поддержка PTA (PPPoE) и LNS профилей Абонент SP Ядро Дата Центр vPTA vLNS Поддержка начиная: IOS XE 3.13.1S (Окт. 2014)
  • 23.
    Виртуальные машины CSR1000v в роли vISG  Virtual Intelligent Services Gateway (vISG) устанавливается как шлюз доступа, предоставляя абонентам IPoEфункционал аналогичный таковому на ASR1000  Целевой группой являются внедрения с числом сессий менее 4K на виртуальную машину  Для фазы 1 рекомендуемая производительность 1Gbps  Частота установления абонентских сессий 50-100CPS  vISGинициаторы сессий –DHCP, unclassified MAC Поддержка начиная: IOS XE 3.13.1S (Окт. 2014) Дата Центр vISG Indoor Hotspot Residential / Community Wi- Fi Metro Wi-Fi Wi-Fi Доступ
  • 24.
    CSR1000v vBNGподдерживаемые профили Профиль vPTA vLNS vISG Тип сессии PPPoEoVLAN PPPoVLANoL2TP IPoEoVLAN Функционал Input/output ACL, ingress QoS(policing) / egress QoS(shaping), vrf-awareness, IPv4/IPv6 dual-stack, AAA, ANCP IPv4/IPv6,HQoS, Input/outputACL, dual-stack service and TC accounting, CoA Service Push DHCP, Unclassified MAC, HQoS, Input/output ACL, ISG TC, L4R, PBHK, Unauthenticated timeout, etc. vCPU 2 vCPU Память 8GB Кол-во сессий 4K 4K 4K Рекомендуемаялицензия по производительности 1Gbps 1Gbps 1Gbps
  • 25.
    4000 сессий протестированодля каждого профиля 0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 CEF vIPoE IPoEoVLAN vBRAS PPPoEoVLAN vLAC PPPoEoVLAN vLNS PPPoEoVLAN Throughput in Mbits  CEF профиль берется за точку отсчета  IPoEсессии требуют меньше памяти по сравнению с PPPoE(аналогичноASR1000), отсюда и разница в производительности  Производительность указана для 1450-байтных пакетов  Каждый профиль был протестирован с 4000 активных сессий, трафик равномерно распределен по ним CEF vsvBNGпроизводительность CSR1000v
  • 26.
    CSR1000v как BGPRoute Reflector ASR1001 & ASR1002-X (8GB) ASR1001 & ASR1002-X (16GB) CSR1000v (8GB) CSR1000v (16GB) RP2(8GB) RP2 (16GB) ipv4 маршрутов 7M 13M 8.5M 24.8M 8M 24M vpnv4 маршрутов 6M 12M 8.1M 23.9M 7M 18M ipv6 маршрутов 6M 11M 7.4M 21.9M 6M 17M vpnv6 маршрутов 6M 11M 7.3M 21.3M 6M 15M BGP сессий 4000 4000 4000 4000 8000 8000 CSR 1000v переиспользуетIOS XE код в части ASR 1000 Route Reflector функционала Виртуальные машины SP Агрегация Абонентский сайт SP Ядро Дата Центр vRR IOS XE 3.13.0S Июль2014
  • 27.
    Облачный дата центр Шлюз Internet L2 домен Сервисы в дата центре Wireless AP Управление FW  Упрощение домашней пользовательской инфраструктуры  Расширение L2 домена до операторского дата центра  Сервисы на базе инфраструктуры дата центра: NAT, FW, NAS, Автоматизация домашней сети,…  Управление виртуальными машинами  Управление сервисами Виртуальная абонентская инфраструктура vCPE
  • 28.
    Виртуальный IOS XRмаршрутизатор или Cisco IOS XRv
  • 29.
     IOS XRподдерживается в x86 виртуальной среде  Тоже самое программное обеспечение IOS XR, что работает на CRS и ASR9K маршрутизаторах, характеризующееся масштабируемой плоскостью управления и поддержкой:  МикроядернойОС  Модульного ПО  Возможностью рестарта процессов  Активации PIE и SMU патчейбез перезагрузки VM  Аналогичный«железным» реализациям IOS XR набор функционала в области сигнальных протоколов, например, протоколов маршрутизации Виртуализация IOS XR= IOS XRv Гипервизор Full Standard IOS XR PI Binaries Виртуальная машина IOS XR 5.1.1
  • 30.
    Стратегия виртуализации SPмаршрутизатора Три категории приложений для виртуализации • Виртуализация Control Plane (виртуальный BGP Route Reflector) • Полностью виртуализированныймаршрутизатор (virtual Control + Data plane) • Разделение Control Plane иData Plane ВиртуальныйRoute Reflector IOSXRv IOSXRv Server / Hypervisor r Server Blade (Hypervisor) Virtual DP Полностью виртуальный маршрутизатор Доступно к заказу Стратегия Cisco: Разработать универсальную архитектуру физического, виртуального или гибридного маршрутизатора. IOS-XRvвзят за основу в роли плоскости управления для всех приложений CP:DP разделение Аппаратная передача данных и виртуальная плоскость управления Фокус этой презентации IOSXRv IOS XRv IOSXRv IOS XRv Virtual DP Virtual DP Virtual DP Виртуальный XR Dataplane Физический Dataplane Dataplane Control (DPC) IOS XRv Virtual XR DP Физический оптимизированный по стоимости Dataplane DPA DPA DPA
  • 31.
    Разделение Control иDataPlaneПодход к линейному масштабированию • Линейное масштабирование Data Plane за счет NPU • Масштабирование Control Plane за счет x86 CPU Compute Routers/Compute Router/LC Router/LC Текущий режим работы Целевая архитектура Control-Plane RP LC Data-Plane LC Data-Plane LC Data-Plane Control-Plane RP LC Data-Plane LC Data-Plane LC Data-Plane LC Data-Plane LC Data-Plane LC Data-Plane LC Data-Plane LC Data-Plane Data-Plane x86 servers x86 servers x86 servers x86 servers x86 servers Control-Plane … 1 x CPU : N x LCs M x CPU : N x NPU
  • 32.
    Дальнейшее развитие CiscoIOS XR (кодовое имя “Spirit”) Распределенная архитектура  Масштабируемость, изоляция отказов, расширение за счет подключаемы модулей Современная OS инфраструктура  Поддержка многоядерных 64-ех битных CPU, включая SMP, а также Open Source приложений Виртуализация  ISSU, разделение Control и Admin плоскостей, упрощение SDR архитектуры ISSU и архитектура высокой доступности  Поддержка Zero Packet Loss (ZPL) и Zero Topology Loss (ZTL) Управление отказами  Локализация и устранение отказов с минимальными потерями работоспособности Доступно с IOS XR 5.0 наNCS6K  Планируется к внедрению –NCS4K, ASR9K Hosted Apps Kernel (Linux, 64bit) Distributed Infra BGP OSPF PIM ACL QoS LPTS SNMP XML NetFlow XR Образ v1 Kernel (Linux, 64bit) Kernel (Linux, 64bit) Distributed Infra BGP OSPF PIM ACL QoS LPTS SNMP XML NetFlow XR Образ v2 Уровень виртуализации System Admin Kernel (Linux, 64bit)
  • 33.
    Стандартный интерфейс междуплоскостями управления и передачи данных • Новая архитектура IOS XR раздельных Control и Data Plane • Эволюция Spirit/XR 64-bit Linux операционной системы, то что мы называем виртуальным XRследующего поколения • XRvразделяет CP-DP путем создания DPC-DPA уровней  DPC = Data Plane Controller, расположен на RP  DPA = Data Plane Agent,расположен на линейной карте XRv DPC Dataplane DPA
  • 34.
    Многообразие систем припереходе к раздельным плоскостям передачи данных и управления Автоматизация и управление сервисами SDN API –NetConf/ YANG, и т.д. Виртуальный XR Dataplane Физический Dataplane Dataplane Control (DPC) IOS XRv Virtual XR DP Аппаратный оптимизированный по стоимости Dataplane CP -DP API DPA DPA DPA
  • 35.
    Data Plane Virtual Forwarder Data Plane Virtual Forwarder Data Plane Virtual Forwarder Data Plane Virtual Forwarder Data Plane Virtual Forwarder Логические маршрутизаторына базе x86 инфраструктуры Router 1 L3 VPN Router 2 L2 VPN Router 3 Internet Массив х86вычислительных ресурсов IOS XRv Virtual Forwarder DPA DPC Currentlynot scheduledfordelivery. IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane
  • 36.
    Логические маршрутизаторы ифизические шасси линейных карт Physical Dataplane Slice Линейная карта| LC Линейная карта| LC Линейная карта| LC Линейная карта| LC Линейная карта| LC Физические шасси Router1 L3 VPN Линейная карта| LC Линейная карта| LC Линейная карта| LC Массивx86 ресурсов (RP) Router 2 Internet Router 3 L2 VPN DPA DPC Currentlynot scheduledfordelivery. IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Control Plane IOS XRv Выделенная LC DPA DPC
  • 37.
    Позиционирование виртуального IOSXR маршрутизатора 2 8 32 128 512 2048 8192 32768 Gbps Virtual XR DP IOS XR VR ASR 9001 ASR 9006 ASR 9904 ASR 9010 ASR 9912 ASR 9922
  • 38.
    HV LXC UVFDP LXC XR CP LXC Admin LINUX TenGigE0/0/0 GigE 0/0/1 GigE 0/0/2 MgmtEth0/0/1 vswitch  Основывается на Virtualized IOS-XR (Spirit) Маршрутизатор внутри виртуальной машины CP, DP & Admin модули внутри Linux Containers (LXC) LXC = Shared Kernel, отдельные kernel namespace (process/network) Плоскость передачи данных Virtual Forwarder (VF) XR комбинированная RP+LC функциональность DPA Архитектура XR виртуального маршрутизатора Виртуальная машина Data Plane Controller
  • 39.
    Виртуальный XRvмаршрутизатор UniversalVirtual Forwarder Набор сервисов • ACLs • uRPF • Marking, Policing • IPv4, IPv6, MPLS • Segment routing • BFD Что ожидают от IOS XRvмаршрутизатора? IOS XRv Сформулированные требования:  20Gbps производительность для IMIX трафика с включенными сервисами (на одном сокете)  т.е. 2x10GE порта  PCIepass-through  Гибкая балансировка нагрузки по нескольким ядрам CPU  Высокопроизводительный QOS планировщик (TM)  3-ехуровневый H-QOS  Поддержка Fast Re-Route (LFA, FRR)  Портируемый64битныйC-код, поддержка в будущем ARM платформ  Общая кодовая база с Cisco nPowerX чипами Interface classification & FIB lookup Traffic Manager Forwarding & Features Иерархический QOS планировщик • 20Gbps+ на одном ядре • 64k абонентов • ½ миллиона очередей • 5000 policy-map Масштабируемый IPv4 иIPv6 FIB 64бит операционная система
  • 40.
    Коммутация данных навиртуальном IOS XR DPA  Обрабатывает управляющие сообщения от/кDPC  Обрабатывает punt / inject пакеты сетевых протоколов  Выполняет сбор статистики и ее агрегацию UVF микрокод  L2 классификация, Коммутация, QoS VPP  Высокопроизводительная классификация и группировка сетевых пакетов в один пакет для обработки; балансировка DPDK  Высокопроизводительные драйверы для передачи информации между виртуальной машиной и аппаратным обеспечением DPC SPP DPA Control Messages Stats Punt/Inject Dataplane UVF ucode Platform/ NPU Layer VPP DPDK Device Drivers Memory Management Сетевые интерфейсы VPP Nodes VPP nodes
  • 41.
  • 42.
    10G* 5G ВиртуальныйDPI (vSCE) # Производительность при использовании Intel сетевой карты с DPDK иCPU скоростью 2.9 Ghz * Предположительно будет доступно Q2 2015 Интерфейсы 8x1G 2x10G Максимально абонентов 225,000 450,000 Число ядер CPU # 10 16 TPS (Login/ Logout) 300 500 VLinks 2048 2048 РейтL4 потоков 195,000 flows/sec 390,000 flows/sec Доступно начиная: 5.0.0 (Июль2014)
  • 43.
    vSCE –пример HWконфигурации для 5G • Количество ядер: 10 @ 2.9 Ghz • Оперативная память: 32 GB • Сетевая карта: 8x1G Пример UCS конфигурации(UCS C220) UCSC-C220-M3L= UCS C220 M3 LFF w/o CPU, mem, HDD, PCIe, PSU, rail kit 1 Unit UCS-CPU-E5-2667= 2.90 GHz E5-2667/130W 6C/15MB Cache/DDR3 1600MHz/NoHeatSink 2 Units UCSC-PCIE-IRJ45= Intel Quad GbEadapter 2 Units UCS-MR-1X162RY-A= 16GB DDR3-1866-MHz RDIMM/PC3-14900/dual rank/x4/1.5v 2 Units UCSC-PSU-450W= 450W power supply for C-series rack servers 1 Unit
  • 44.
     Полноценный ASAмежсетевой экран в виртуальной форме  Поддержка нескольких vCPUs(до4-ех) иvNICs(до10-ти)с VLAN тэгами(до200-т)  Виртуализация делает ненужным поддержку Multiple-context режима  Только Active/Standby failover резервирование; в будущем кластеризация  Etherchannelинтерфейс должен быть сконфигурирован на NIC карте сервера  Расширение использование ASA экранов  ASA 1000v на границе виртуального дата центра  Защита физических и VM коммуникаций на любых типах интерфейсов  Routed и Transparent режимы работы  Планируется поддержка VxLANкоммутации  Рекомендация по использованию с ESXivSwitchи Nexus 1000v, в тоже время поддерживается работа и с KVM гипервизором(ASA 9.3.1) Обзор ASAv Поддержка с ASA 9.2(1) GA 9.3.2
  • 45.
    ASAvПроизводительность и масштабируемость Метрика ASAv10 ASAv30 Stateful Inspection Throughput (Maximum) 1 Gbps 2 Gbps Stateful Inspection Throughput (Multi-Protocol) 500 Mbps 1 Gbps Concurrent Sessions 100,000 500,000 Connections Per Second 20,000 60,000 VLANS 50 200 Cisco®Cloud Web Security Users 150 500 3DES / AES VPN Throughput 125 Mbps 300 Mbps S2S IPSec IKEv1 Client VPN User Sessions 250 750 Cisco AnyConnect®or Clientless User Sessions 250 750 UC Phone Proxy 250 1000 Протестировано  UCS C260 M2  UCS B200 M3  Processor E5-2640 Необходимо GHz:  5GHz дляASAv10 @1Gbps  13GHz дляASAv30 @2Gbps (включая ESX нагрузку) Лимиты по ресурсам:  5 GHz on ASAv10  20 GHz on ASAv30 (ASAvперезагружается при нарушении)
  • 46.
  • 47.
    Cisco Modeling Labs–виртуальная лаборатория Многоцелевая расширяемая тестовая зона:  Точная модель существующих сетей  Использование реальных компонент (сетевых операционных систем) для прототипированияконфигураций  Поддержка до сотен устройств в сети  Возможность интеграции виртуальных и физических устройств в одну тестовую сеть Август 2014
  • 48.
    Виртуальные операционные системыдля Cisco Modeling Labs Идет в комплекте с Cisco Modeling Labs IOS В виртуальном форматеIOSv IOS XR В виртуальном формате IOS XRv IOS XE В виртуальном форматеCSR1000v Отдельные лицензии для Cisco Modeling Labs 48
  • 49.
    Cisco Modeling LabsКомплект поставки Поддержка дополнительных сетевых операционных систем в формате OVA/VMDK файлов 49
  • 50.
    Cisco Modeling LabПринцип работы CML Интерфейс Транслятор команд «Срезы» топологии Конфигурация устройства Схема топологии Пакет данных –топология и конфигурации Виртуальные машины/ Коммутаторы 2 3 4 5 6 7 8 9 A1-Console:17000 A1-Aux:17001 … 1
  • 51.
    CiscoRu Cisco CiscoRussia Ждем ваших сообщений с хештегом #CiscoConnectRu Пожалуйста, используйте код для оценки доклада 1557 Ваше мнение очень важно для нас Спасибо за внимание! 25.11.2014 © 2014 Cisco and/or its affiliates. All rights reserved.