2. Network Function Virtualization (NFV)
NAT
VM
Firewall
VM
SBC
VM
dDOS
VM
Virus Scan
VM
IPS
VM
DPI
VM
CGN
VM
Portal
VM
PCRF
VM
DNS
VM
DHCP
VM
BRAS
VM
SDN Ctrl.
VM
RaaS
VM
WLC
VM
WAAS
VM
CDN
VM
Caching
VM
NMS
VM
Переход от каблированияк Service Chaining
Упрощение логистики и формирования ЗИП
Динамическая масштабируемость
Уменьшение времени развертывания сервисов с дней до минут
Интеграция с существующими сетями
5. Cisco Cloud Services Router (CSR) 1000V
Cisco IOSXE в виртуальном форм-факторе
IOS XE Cloud Edition
Поддержка IOS XE функций на запросу заказчиков
Независимость от инфраструктуры
Нет привязки к аппаратным характеристиками серверов, поддержка ESXi, KVM, XenиHyper-V гипервизоров
Гибкая производительность
Производительность от 10Mbps до20 Gbpsпри задействовании от 1 до8 vCPU
Гибкая лицензионная политика
Ограниченные по времени действия и постоянные лицензии
Программируемость
Поддержка RESTfulAPI (наборOnePK), Netconf/Yang
Сервер
Гипервизор
Виртуальный коммутатор
OS
App
OS
App
CSR 1000V
7. Позиционирование в сети CSR 1000V
Дата Центр
ASR 1000
Корпорация B
Корпорация A
Филиал/ CPE
IaaS Cloud
Абонент A
Абонент B
PoP
ASR 9000
PE
PE
ASR 9000
ASR 9000
CSR 1000V
CSR 1000V
Фаза 1 -Cloud
•
Cloud инфраструктура-vCE/ vPE
•
Сетевые сервисы -VPN шлюз
•
Гибридные облака –L2/ L3 VPN связность
Фаза 2 –SP граница
•
Сетевые сервисы –VPNшлюз, BRAS (NFV)
•
Функционал плоскости управления -Route Reflector, IP SLA
CSR 1000V
CSR 1000V
Фаза 3 –CPE
•
vCPE/ Все сервисы на одной x86
•
Оркестрациясервисов
CSR 1000V
8. Архитектура CSR 1000v
Виртуальный IOS XE
Control Plane и Data Plane работают на отдельных vCPU
Bootflash: NVRAM: соответствуют областям в оперативной памяти, копируются с HDD
Нет аппаратного криптографического ускорителя – используется Intel AES-NI набор инструкций
Bootloader функционал реализован за счет GRUB
Путь пакета через CSR 1000v
1.
Ethernet driver (вход)
2.
Rx поток
3.
PPE поток (обработка пакета)
4.
HQF поток (исходящий QoS)
5.
Ethernet driver (выход)
Control Plane
Forwarding Plane
vNIC
vCPU
vMemory
vDisk
Physical Hardware
CPU
Memory
Disk
NIC
Гипервизор (VMware / Citrix / KVM)
Chassis Mgr.
Forwarding Mgr.
IOS
Chassis Mgr.
Forwarding Mgr.
FFP Client / Driver
FFP code
Linux Container
8
9. Взаимодействие виртуальной машины и гипервизора
UCS
Blade
Blade
Phyi/f
Phyi/f
CPU
Core
Core
Hypervisor
VM
CSR1000V
vCPU
CPU
Core
Core
vCPU
vCPU
vCPU
Планировщик
Vswitch
port
port
Memory
vMemTables
VNIC
VM
CSR 1000V
VNIC
vMemTables
Гипервизор абстрагирует и распределяет аппаратные ресурсы среди множества VM
Алгоритм соответствия vCPUфизическим процессорам влияет на производительность
Диспетчеризация vNICпо физическим интерфейсам может привести к потере пакетов/ джитеру
Набор VMWareустановок влияет на распределение ресурсов:
Кол-во vCPUнаVM
Минимум циклов на vCPU/привязка vCPUк физическому ядру
Балансировка трафика в vSwitch
10.
IOS XE процессорные потоки в гостевой ОС привязаны к vCPU
vCPUпотоки в свою очередь привязываются к физическим CPU ядрам с помощью настроек гипервизора
CSR 1000v IOS XE потоки и vCPUассоциации
CSRfootprint
Control Plane
DataPlane PPE
Data Plane HQF
Data Plane Rx processing
1
vCPU0
2
vCPU0
vCPU1
4
vCPU0
vCPU1 & 2
vCPU3
8
vCPU0
vCPU1-5
vCPU6
vCPU7
11. Модели I/Oи производительность
NIC Driver
Virtual NIC
(VMXNET3)
Аппаратная NIC
RX Ring
TX Ring
Virtual NIC
(VMXNET3)
Аппаратная NIC
RX Ring
TX Ring
Аппаратная NIC
RX Ring
TX Ring
NIC driver
NIC driver
NIC Driver
Virtual NIC
(VMXNET3)
Аппаратная NIC
RX Ring
TX Ring
Virtual NIC
(VMXNET3)
Sereno ASIC
HW Queues
Paravirtualized
Direct I/O
UCS VM-FEX
9 Gbps
11.2 Gbps
13.2 Gbps
Результаты тестирования CEF 1500 байт коммутации на сервере 4 vCPU, ESXi5.5
Hypervisor Virtual Switch
12. Single Root IO Virtualization -SR-IOV
Одно физическое PCIeустройство эмулирует несколько отдельных PCIeадаптеров
Позволяет виртуальной машине общаться напрямую с аппаратной составляющей минуя гипервизор
Физические и виртуальные функции/элементы(PF/VF)
PF: полнофункциональное PCIeустройство
VF: PCIeбез конфигурируемых ресурсов
Каждый PF/VF получает отдельный PCIeидентификатор, таким образом разделяется IO работа с памятью для VF
Требуется поддержка в BIOS/Гипервизоре
Поддерживается для IOS XE с релиза 3.13
для
ESXiиHyperV
13. vMotionдля VM-FEXс включенным DirectPathI/O
Временный переход
от
DirectPathкстандартномуI/O
•VM передает TCP поток(1500MTU)
•UCS B200 M2 шасси с UCS VIC картой
0
2500
5000
7500
10000
19:06:19
19:06:23
19:06:27
19:06:31
19:06:35
19:06:39
19:06:43
19:06:47
19:06:52
Mbps
Time (secs)
vMotionна второй хост
1 сек перерыв трафика
13
14. Интерпретация Loss Rate, потерь пакетов при измерении производительности виртуальных машин
Результаты измерений производительности сильно разнятся в зависимости от выбора приемлемого уровня потерь пакетов. Например, можем выбрать
Без потерь -> Non-Drop Rate (NDR)
Не более 5-типакетов
0.1% от PPS,частоты передачи пакетов
Небольшое ослабление LR критерия приводит к значительному росту производительности
Обычно тесты на производительность подразумевают потерю 5 пакетов(«прогрев» системы), а также интерполяцию результатов по нескольким 2-ух минутным тестам
Если не указано иное
2vCPU: производительность 670Mbps при 1% потерь
2vCPU: производительность 384Mbps при0% потерь
15. Как определить производительность при заданном Loss Rate
В ходе теста измеряем % потерь данных для различной нагрузки
Нагружаем устройство -> наблюдаем потери -> уменьшаем нагрузку до тех пор пока потери не станут допустимыми
НО! Сложно получить сходные результаты на множестве тестов
Необходимо заранее договориться как интерпретировать результаты!
Например:
Наибольшая нагрузка при которой видим LR =0.01% -> 475 Mbps
Нагрузка при которой LR всегда меньше 0.01% -> 374 Mbps
Потери пакетов превышают допустимый уровень 0.01% при {445, 435, 414, 384} Mbps
16. Пиковая производительность CSR 1000v
Одна виртуальная машина CSR 1000v способна обрабатывать 20 GbpsIPv4 CEF
Конфигурация с 8 vCPU
Также доступны конфигурации с 1, 2, 4 vCPU
IOS XE 3.13содержит улучшения по производительности
До 8 vCPUна VM
ПоддержкаVM-Fex/Direct Path/VIC1280 c VmwareESXi
Оптимизация HQF (исходящий QoS)
Уменьшение процессов в виртуальной машине
*Предварительная информацияна основе тестирования инженерного релизаIOS XE 3.13; Использовался UCS-B200-M3, E7-2690 с VM-Fex.
17.
Постоянное улучшение производительности
Внутренние доработки кода СSR1000V
Поддержка большего количества vCPU
Оптимизация настроек гипервизора
Поддержка VM FexсDirect Path
Поддержка Netmap
Оптимизация компилятора
VMFexс DirectPathI/O и привязкой VM к определенным CPU дает скачок в производительности
В дополнении к постоянным характеристикам по потерям и задержкам пакетов
Улучшение производительности CSR 1000v с каждым релизом ПО
Up to IOS XE 3.12: B230-Base-M2, 128 GB RAM, CPU: Intel Xeon E7-2870 @ 2.40 GHz
IOS XE 3.13: B200M3, 256GB RAM, CPU: Intel Xeon E7-2690 @ 3.0 GHz
Traffic Generator : Spirent ( RFC-2544)
Hypervisor : Vmware: ESXi5.5.0,
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
18.
ТестируетсяIOS XE 3.13
Одновременно задействовано несколько функций, типовые конфигурации
IMIX смесь пакетов
Наблюдается минимальная потеря производительности для ACL+QoSпрофиля
Ожидаемо NAT + IPSec приводит к максимальной деградации
Производительность CSR 1000v для различных профилей на базе ESXiгипервизора
Hardware: UCS C200 M2 : 2x Intel Xeon 2690 Sandy Bridge 2.90 Ghz8 cores, 16 threads
Traffic Generator : Spirent ( RFC-2544)
Hypervisor : Vmware: ESXi5.5.0,
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
19. X86сервер
Host-OS /
KVM
Qemu/ v-Host
tap
vSwitch(OVS) / Linux bridge
NIC driver
Guest-OS
Virtio-net
Guest-OS
Virtio-net
Qemu/ v-Host
tap
App
App
App
App
App
App
KVM+UbuntuОбзор архитектуры
KVM+Ubuntuнабирают популярность
Open source -> “дешевле чем VMWare”
Гипервизор виртуализируетNIC сетевую карту для нескольких VM
Гипервизор планирует выполнение I/O процессов на сервере
Физически всего лишь один набор аппаратного обеспечения, т.е. порт, очереди на нем и т.д.
1-N отношение между VM’ vNICи одним NICпортом
Один vHost/VirtIOпроцесс на виртуальный интерфейс(vNIC)–> «узкое горлышко» для высоких скоростей передачи
NIC port
20.
Тестируется KVM+Ubuntuи IOS XE 3.13
Результаты аналогичны ESXi:
ACL+QoSдеградирует незначительно
IPSec иNAT наиболее требовательная конфигурация
Производительность незначительно отличается для 1/2/4 vCPUконфигураций
Причина в размере Txbuffer
Необходима ручная настройка параметров KVM для достижения максимальной производительности
Производительность CSR 1000v для различных профилей на базе KVM гипервизора
Hardware: UCS C220 M2 : 2x Intel Xeon E2690 Sandy Bridge 2.90Ghz 8 cores, 16 threads
Traffic Generator : Spirent ( RFC-2544)
Hypervisor : KVM Ubuntu 14.04 w/ netmap,
Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}
22. VM
SP Aggregation
CSR 1000v в роли vPTA/ vLNSагрегатора
Первая в отрасли реализация виртуального BNG (PTA/LNS)
CSR 1000v переиспользуетIOS XE код от ASR 1000
PTA / LNS функционал портированна виртуальную платформу
Внедрения с числом сессий менее 4K на виртульнуюмашину
1Gbps пропускная способность (фаза 1)
Частота установления сессий 50-100CPS
Поддержка PTA (PPPoE) и LNS профилей
Абонент
SP Ядро
Дата Центр
vPTA
vLNS
Поддержка начиная:
IOS XE 3.13.1S (Окт. 2014)
23. Виртуальные машины
CSR 1000v в роли vISG
Virtual Intelligent Services Gateway (vISG) устанавливается как шлюз доступа, предоставляя абонентам IPoEфункционал аналогичный таковому на ASR1000
Целевой группой являются внедрения с числом сессий менее 4K на виртуальную машину
Для фазы 1 рекомендуемая производительность 1Gbps
Частота установления абонентских сессий 50-100CPS
vISGинициаторы сессий –DHCP, unclassified MAC
Поддержка начиная:
IOS XE 3.13.1S (Окт. 2014)
Дата Центр
vISG
Indoor Hotspot
Residential / Community Wi- Fi
Metro Wi-Fi
Wi-Fi Доступ
24. CSR1000v vBNGподдерживаемые профили
Профиль
vPTA
vLNS
vISG
Тип сессии
PPPoEoVLAN
PPPoVLANoL2TP
IPoEoVLAN
Функционал
Input/output ACL, ingress QoS(policing) / egress QoS(shaping), vrf-awareness, IPv4/IPv6 dual-stack, AAA, ANCP
IPv4/IPv6,HQoS, Input/outputACL, dual-stack service and TC accounting, CoA Service Push
DHCP, Unclassified MAC, HQoS, Input/output ACL, ISG TC, L4R, PBHK, Unauthenticated timeout, etc.
vCPU
2 vCPU
Память
8GB
Кол-во сессий
4K
4K
4K
Рекомендуемаялицензия по производительности
1Gbps
1Gbps
1Gbps
25. 4000 сессий протестировано для каждого профиля
0
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
CEF
vIPoE
IPoEoVLAN
vBRAS
PPPoEoVLAN
vLAC
PPPoEoVLAN
vLNS
PPPoEoVLAN
Throughput in Mbits
CEF профиль берется за точку отсчета
IPoEсессии требуют меньше памяти по сравнению с PPPoE(аналогичноASR1000), отсюда и разница в производительности
Производительность указана для 1450-байтных пакетов
Каждый профиль был протестирован с 4000 активных сессий, трафик равномерно распределен по ним
CEF vsvBNGпроизводительность CSR1000v
27. Облачный дата центр
Шлюз
Internet
L2 домен
Сервисы в дата центре
Wireless AP
Управление
FW
Упрощение домашней пользовательской инфраструктуры
Расширение L2 домена до операторского дата центра
Сервисы на базе инфраструктуры дата центра: NAT, FW, NAS, Автоматизация домашней сети,…
Управление виртуальными машинами
Управление сервисами
Виртуальная абонентская инфраструктура vCPE
29.
IOS XR поддерживается в x86 виртуальной среде
Тоже самое программное обеспечение IOS XR, что работает на CRS и ASR9K маршрутизаторах, характеризующееся масштабируемой плоскостью управления и поддержкой:
МикроядернойОС
Модульного ПО
Возможностью рестарта процессов
Активации PIE и SMU патчейбез перезагрузки VM
Аналогичный«железным» реализациям IOS XR набор функционала в области сигнальных протоколов, например, протоколов маршрутизации
Виртуализация IOS XR= IOS XRv
Гипервизор
Full Standard
IOS XR
PI Binaries
Виртуальная машина
IOS XR 5.1.1
30. Стратегия виртуализации SP маршрутизатора
Три категории приложений для виртуализации
•
Виртуализация Control Plane (виртуальный BGP Route Reflector)
•
Полностью виртуализированныймаршрутизатор (virtual Control + Data plane)
•
Разделение Control Plane иData Plane
ВиртуальныйRoute Reflector
IOSXRv
IOSXRv
Server / Hypervisor
r
Server Blade (Hypervisor)
Virtual
DP
Полностью виртуальный маршрутизатор
Доступно к заказу
Стратегия Cisco: Разработать универсальную архитектуру физического, виртуального или гибридного маршрутизатора. IOS-XRvвзят за основу в роли плоскости управления для всех приложений
CP:DP разделение
Аппаратная передача данных и виртуальная плоскость управления
Фокус этой презентации
IOSXRv
IOS XRv
IOSXRv
IOS XRv
Virtual
DP
Virtual
DP
Virtual
DP
Виртуальный XR Dataplane
Физический Dataplane
Dataplane Control (DPC)
IOS XRv
Virtual
XR DP
Физический оптимизированный по стоимости Dataplane
DPA
DPA
DPA
31. Разделение Control иData PlaneПодход к линейному масштабированию
•
Линейное масштабирование Data Plane за счет NPU
•
Масштабирование Control Plane за счет x86 CPU
Compute
Routers/Compute
Router/LC
Router/LC
Текущий режим работы
Целевая архитектура
Control-Plane
RP
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
Control-Plane
RP
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
LC
Data-Plane
Data-Plane
x86 servers
x86 servers
x86 servers
x86 servers
x86 servers
Control-Plane
…
1 x CPU : N x LCs
M x CPU : N x NPU
32. Дальнейшее развитие Cisco IOS XR (кодовое имя “Spirit”)
Распределенная архитектура
Масштабируемость, изоляция отказов, расширение за счет подключаемы модулей
Современная OS инфраструктура
Поддержка многоядерных 64-ех битных CPU, включая SMP, а также Open Source приложений
Виртуализация
ISSU, разделение Control и Admin плоскостей, упрощение SDR архитектуры
ISSU и архитектура высокой доступности
Поддержка Zero Packet Loss (ZPL) и Zero Topology Loss (ZTL)
Управление отказами
Локализация и устранение отказов с минимальными потерями работоспособности
Доступно с IOS XR 5.0 наNCS6K
Планируется к внедрению –NCS4K, ASR9K
Hosted Apps
Kernel (Linux, 64bit)
Distributed Infra
BGP
OSPF
PIM
ACL
QoS
LPTS
SNMP
XML
NetFlow
XR Образ v1
Kernel
(Linux, 64bit)
Kernel (Linux, 64bit)
Distributed Infra
BGP
OSPF
PIM
ACL
QoS
LPTS
SNMP
XML
NetFlow
XR Образ v2
Уровень виртуализации
System
Admin
Kernel (Linux, 64bit)
33. Стандартный интерфейс между плоскостями управления и передачи данных
•
Новая архитектура IOS XR раздельных Control и Data Plane
•
Эволюция Spirit/XR 64-bit Linux операционной системы, то что мы называем виртуальным XRследующего поколения
•
XRvразделяет CP-DP путем создания DPC-DPA уровней
DPC = Data Plane Controller, расположен на RP
DPA = Data Plane Agent,расположен на линейной карте
XRv
DPC
Dataplane
DPA
34. Многообразие систем при переходе к раздельным плоскостям передачи данных и управления
Автоматизация и управление сервисами
SDN API –NetConf/ YANG, и т.д.
Виртуальный XR Dataplane
Физический Dataplane
Dataplane Control (DPC)
IOS XRv
Virtual
XR DP
Аппаратный оптимизированный по стоимости Dataplane
CP -DP API
DPA
DPA
DPA
35. Data Plane
Virtual
Forwarder
Data Plane
Virtual
Forwarder
Data Plane
Virtual
Forwarder
Data Plane
Virtual
Forwarder
Data Plane
Virtual
Forwarder
Логические маршрутизаторына базе x86 инфраструктуры
Router 1
L3 VPN
Router 2
L2 VPN
Router 3
Internet
Массив х86вычислительных ресурсов
IOS XRv
Virtual
Forwarder
DPA
DPC
Currentlynot scheduledfordelivery.
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
36. Логические маршрутизаторы и физические шасси линейных карт
Physical
Dataplane
Slice
Линейная карта| LC
Линейная карта| LC
Линейная карта| LC
Линейная карта| LC
Линейная карта| LC
Физические шасси
Router1
L3 VPN
Линейная карта| LC
Линейная карта| LC
Линейная карта| LC
Массивx86 ресурсов (RP)
Router 2
Internet
Router 3
L2 VPN
DPA
DPC
Currentlynot scheduledfordelivery.
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Control Plane
IOS XRv
Выделенная
LC
DPA
DPC
37. Позиционирование виртуального IOS XR маршрутизатора
2
8
32
128
512
2048
8192
32768
Gbps
Virtual
XR DP
IOS XR VR
ASR 9001
ASR 9006
ASR 9904
ASR 9010
ASR 9912
ASR 9922
38. HV
LXC
UVF DP
LXC
XR CP
LXC
Admin
LINUX
TenGigE0/0/0
GigE 0/0/1
GigE 0/0/2
MgmtEth0/0/1
vswitch
Основывается на Virtualized IOS-XR (Spirit)
Маршрутизатор внутри виртуальной машины
CP, DP & Admin модули внутри Linux Containers (LXC)
LXC = Shared Kernel, отдельные kernel namespace (process/network)
Плоскость передачи данных
Virtual Forwarder (VF)
XR комбинированная RP+LC функциональность
DPA
Архитектура XR виртуального маршрутизатора
Виртуальная машина
Data Plane
Controller
39. Виртуальный XRvмаршрутизатор
Universal Virtual Forwarder
Набор сервисов
•
ACLs
•
uRPF
•
Marking, Policing
•
IPv4, IPv6, MPLS
•
Segment routing
•
BFD
Что ожидают от IOS XRvмаршрутизатора?
IOS XRv
Сформулированные требования:
20Gbps производительность для IMIX трафика с включенными сервисами (на одном сокете)
т.е. 2x10GE порта
PCIepass-through
Гибкая балансировка нагрузки по нескольким ядрам CPU
Высокопроизводительный QOS планировщик (TM)
3-ехуровневый H-QOS
Поддержка Fast Re-Route (LFA, FRR)
Портируемый64битныйC-код, поддержка в будущем ARM платформ
Общая кодовая база с Cisco nPowerX чипами
Interface
classification
& FIB lookup
Traffic
Manager
Forwarding & Features
Иерархический QOS планировщик
•
20Gbps+ на одном ядре
•
64k абонентов
•
½ миллиона очередей
•
5000 policy-map
Масштабируемый IPv4 иIPv6 FIB
64бит
операционная
система
40. Коммутация данных на виртуальном IOS XR
DPA
Обрабатывает управляющие сообщения от/кDPC
Обрабатывает punt / inject пакеты сетевых протоколов
Выполняет сбор статистики и ее агрегацию
UVF микрокод
L2 классификация, Коммутация, QoS
VPP
Высокопроизводительная классификация и группировка сетевых пакетов в один пакет для обработки; балансировка
DPDK
Высокопроизводительные драйверы для передачи информации между виртуальной машиной и аппаратным обеспечением
DPC
SPP
DPA
Control
Messages
Stats
Punt/Inject
Dataplane
UVF ucode
Platform/ NPU Layer
VPP
DPDK
Device Drivers
Memory Management
Сетевые
интерфейсы
VPP Nodes
VPP nodes
42. 10G*
5G
Виртуальный DPI (vSCE)
# Производительность при использовании Intel сетевой карты с DPDK иCPU скоростью 2.9 Ghz
* Предположительно будет доступно Q2 2015
Интерфейсы
8x1G
2x10G
Максимально абонентов
225,000
450,000
Число ядер CPU #
10
16
TPS (Login/ Logout)
300
500
VLinks
2048
2048
РейтL4 потоков
195,000 flows/sec
390,000 flows/sec
Доступно начиная:
5.0.0 (Июль2014)
43. vSCE –пример HW конфигурации для 5G
•
Количество ядер: 10 @ 2.9 Ghz
•
Оперативная память: 32 GB
•
Сетевая карта: 8x1G
Пример UCS конфигурации(UCS C220)
UCSC-C220-M3L=
UCS C220 M3 LFF w/o CPU, mem, HDD, PCIe, PSU, rail kit
1 Unit
UCS-CPU-E5-2667=
2.90 GHz E5-2667/130W 6C/15MB Cache/DDR3 1600MHz/NoHeatSink
2 Units
UCSC-PCIE-IRJ45=
Intel Quad GbEadapter
2 Units
UCS-MR-1X162RY-A=
16GB DDR3-1866-MHz RDIMM/PC3-14900/dual rank/x4/1.5v
2 Units
UCSC-PSU-450W=
450W power supply for C-series rack servers
1 Unit
44.
Полноценный ASA межсетевой экран в виртуальной форме
Поддержка нескольких vCPUs(до4-ех) иvNICs(до10-ти)с VLAN тэгами(до200-т)
Виртуализация делает ненужным поддержку Multiple-context режима
Только Active/Standby failover резервирование; в будущем кластеризация
Etherchannelинтерфейс должен быть сконфигурирован на NIC карте сервера
Расширение использование ASA экранов
ASA 1000v на границе виртуального дата центра
Защита физических и VM коммуникаций на любых типах интерфейсов
Routed и Transparent режимы работы
Планируется поддержка VxLANкоммутации
Рекомендация по использованию с ESXivSwitchи Nexus 1000v, в тоже время поддерживается работа и с KVM гипервизором(ASA 9.3.1)
Обзор ASAv
Поддержка с ASA 9.2(1)
GA 9.3.2
45. ASAvПроизводительность и масштабируемость
Метрика
ASAv10
ASAv30
Stateful Inspection Throughput (Maximum)
1 Gbps
2 Gbps
Stateful Inspection Throughput (Multi-Protocol)
500 Mbps
1 Gbps
Concurrent Sessions
100,000
500,000
Connections Per Second
20,000
60,000
VLANS
50
200
Cisco®Cloud Web Security Users
150
500
3DES / AES VPN Throughput
125 Mbps
300 Mbps
S2S IPSec IKEv1 Client VPN User Sessions
250
750
Cisco AnyConnect®or Clientless User Sessions
250
750
UC Phone Proxy
250
1000
Протестировано
UCS C260 M2
UCS B200 M3
Processor E5-2640
Необходимо GHz:
5GHz дляASAv10 @1Gbps
13GHz дляASAv30 @2Gbps
(включая ESX нагрузку)
Лимиты по ресурсам:
5 GHz on ASAv10
20 GHz on ASAv30
(ASAvперезагружается при нарушении)
47. Cisco Modeling Labs –виртуальная лаборатория
Многоцелевая расширяемая тестовая зона:
Точная модель существующих сетей
Использование реальных компонент (сетевых операционных систем) для прототипированияконфигураций
Поддержка до сотен устройств в сети
Возможность интеграции виртуальных и физических устройств в одну тестовую сеть
Август 2014
48. Виртуальные операционные системы для Cisco Modeling Labs
Идет в комплекте с
Cisco Modeling Labs
IOS
В виртуальном форматеIOSv
IOS XR
В виртуальном формате
IOS XRv
IOS XE
В виртуальном форматеCSR1000v
Отдельные лицензии для Cisco Modeling Labs
48
49. Cisco Modeling Labs Комплект поставки
Поддержка дополнительных
сетевых операционных
систем в формате
OVA/VMDK файлов
49
50. Cisco Modeling Lab Принцип работы
CML Интерфейс
Транслятор команд
«Срезы» топологии
Конфигурация
устройства
Схема топологии
Пакет данных –топология и конфигурации
Виртуальные машины/ Коммутаторы
2
3
4
5
6
7
8
9
A1-Console:17000
A1-Aux:17001
…
1