Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

PLNOG 18 - Edmund Asare i Jacek Skowyra - Ewolucja Architektur W Data Center na przykładzie Juniper

66 views

Published on

YouTube: https://www.youtube.com/watch?v=hPyZ9RjTDGI&list=PLnKL6-WWWE_VNp6tUznu7Ca8hBF8yjKj2&index=48

Published in: Technology
  • Be the first to comment

  • Be the first to like this

PLNOG 18 - Edmund Asare i Jacek Skowyra - Ewolucja Architektur W Data Center na przykładzie Juniper

  1. 1. Ewolucja Data Center na przykładzie Juniper Jacek Skowyra Technical Consultant Infradata Polska Edmund Asare Technical Consultant Infradata Polska
  2. 2. Agenda 2 ˥ Tradycyjne Data Center ˥ Ewolucja Rozwiązań Juniper ˥ IP Data Center ˥ Underlay/Overlay
  3. 3. Co wpływało na zmiany w Data Center? Wyzwania aplikacyjne 3 ˥ Nowoczesne topologie Data Center muszą być płaskie, bardziej elastyczne, oraz prostsze. ˥ Wymagają tego nowoczesne aplikacje oraz nowe rodzaje usług. Modern App Flows ATTRIBUTES • Increased Machine to Machine • East-West traffic REQUIREMENTS • Flatter Topology • High performance and consistent Network Virtualization ATTRIBUTES • Virtualized with Bare metal • Introduction of Network Overlays REQUIREMENTS • Physical to Virtual (P2V) integration • Overlay visualization & management Everything “As-a-Service” ATTRIBUTES • Scale-out • On-demand REQUIREMENTS • Multi-tenancy • Simple to operate, easy to scale
  4. 4. Co wpływało na zmiany w Data Center? 4 ˥ Tradycyjne hierarchiczne sieci w Data Center stawiały przed nami wiele wyzwań: ˥ Wymagały mechanizmów zapobiegania pętlom L2 ˥ Nieefektywne użycie zasobów ˥ Ograniczenia w skalowalności ˥ Duże opóźnienia Urządzenia zarządzane indywidualnie Nie wszystkie ścieżki w użyciu Admin Niedeterministyczna ścieżka dla danych
  5. 5. Ewolucja Rozwiązań Juniper DC Q: Whena bear fightsa shark, who wins? A:It depend son whether thefight wason the beach orinthe water. We should pickthe location where we choose to invest our energy fighting. Multi-tier MC-LAG VCF Junos Fusion IP Fabric Ethernet Fabric JUNOS: one common operating system for all fabrics Business Critical IT & Private Cloud SaaS, Web Services QFabric <4,260Servers < 1,500 Servers 10,000+<6,000 Servers Virtual Network …
  6. 6. Wykorzystanie sieci CLOS w Data Center Spine 1 Spine 2 Leaf 2 Leaf 3 Leaf 4Leaf 1 Opcja 1  3 etapowa topologia CLOS  Małe i średnie DC Fabric1 Fabric2 Opcja 2  5 etapowa topologia CLOS  Średnie i duże DC Spine 1 Spine 2 Leaf 2 Leaf 3 Leaf 4Leaf 1 Spine 1 Spine 2 Leaf 2 Leaf 3 Leaf 4Leaf 1 ˥ Wielostanowa siec przełączająca Charles Clos, 1953) ˥ Używana od dawna w przełącznicach telefonicznych W sieci Data Center: ˥ Fabryki L2 i L3 ˥ Nieblokujący Core ˥ Oversubskrybcja na uplinkach od przełączników leaf.
  7. 7. IP w Data Center? ˥ Potrzeba rozciągania warstwy drugiej pomiędzy szafami jest coraz mniejsza. ˥ Aplikacje rozproszone np.: ˥ Hadoop clustering ˥ Ceph ˥ Cassandra ˥ Sieci nakładkowe (tunelowanie ramek L2) ˥ VXLAN (wspierane przez większość producentów w tym VMWare) ˥ MPLS ˥ GRE
  8. 8. Wymagania dla realizacji sieci underlay/overlay 9 ˥ Wykorzystując tylko zasoby sieci podkładowej ˥ Multicast Control Plane ˥ IP ˥ Multicast routing ˥ EVPN Control Plane ˥ IP ˥ BGP/EVPN ˥ Control Plane wyniesiony na zewnątrz (SDN Controller) ˥ Juniper Contrail/VMware NSX-V/NSX-T ˥ IP ˥ L2 GW ˥ L3 GW
  9. 9. Overlay - tunele – enkapsulacja ˥ NVGRE ˥ MPLSoverGRE ˥ MPLSoverUDP ˥ (…)
  10. 10. VXLAN • VNI (VXLAN Network Identifier): 24 bity • Port UDP: IANA VXLAN port (4789) • Port żródłowy UDP : hash na bazie wewnętrzengo nagłówka pakietu • Nagłówek zewnętrzny IP: Adres IP VTEP Original Frame UDP Header Outer IP Header Flags (8 bits) Reserved (24 bits) Reserved (8 bits) Additional headers (50 bytes) VXLAN header (8 bytes) Outer MAC Header FCS VNI (24 bits)
  11. 11. Multicast VXLAN 12 ˥ Data Plane ˥ VXLAN ˥ Contol Plane ˥ Statyczny lub Multicast ˥ IGMP ˥ PIM R1 A B C VM1 VM2 VM3 VXLAN VTEP A vSwitch Kernel IP Stack VM4 VM5 VM6 VXLAN VTEP B vSwitch Kernel IP Stack IGMP Join (G = 239.1.1.1) (*,G) State for R1 Source: * (Any) Group: 239.1.1.1 Incoming Interface: C (RP-facing interface) Outgoing Interface List: B DR RP
  12. 12. Czym jest EVPN? 13 ˥ Control Plane jak L3VPN ˥ Multihoming load-balancing ˥ Mass withdraw ˥ L3 anycast GW ˥ Mac mobility BGP signaling on WAN exchange MAC/IP routesEVPN PE2 EVPN PE1 EVPN PE3 EVPN PE4CE1 CE2 MPLS 9 MP-BGP
  13. 13. EVPN VXLAN 14 ˥ Data Plane ˥ VXLAN ˥ Control Plane ˥ EVPN
  14. 14. DCI EVPN 15 DC Fabric DC Gateway DC FabricDC Gateway Link Efficiency ALL Active Convergence HA, Fast reroute L3 and L2 Warstwa L2 I L3 w datacenter DC Optimized VM Mobility MPLS IP Fabric Virtual Machine Mobility Custom Services Polityka jak L3VPN
  15. 15. PE PE PE PE Servers Spines GWs P P P P Data Center 1 Service Provider Backbone Data Center 2 QFX10K QFX5K QFX10K QFX5K QFX10K QFX 5K QFX10K QFX5K vQFXvQFX MX MX QFX10K MX QFX10K MX 5100 5110 5100 5110 5200 5300 10002 10008 10016 5200 5300 5200 5300 10002 10008 10016 QFX10K /MX QFX10K /MX CE CE DC Spine DC Spine Leaf Leaf Leaf Leaf
  16. 16. Jak uprościć konfigurację i zarządzanie? ˥ IP Fabric + EVPN/VXLAN Ansible Openclos 3.0 ND 3.0 • Bardzo Elastyczne • Wsparcie dla urządzeń MX i QFX • Społeczność • Zintegrowane z ZTP • Modyfikacje konfiguracji poprzez REST API • Wsparcie dla QFX • Interfejs graficzny • Openclos 3.0 • JTAC Support https://github.com/JNPRAutomate/ansible-junos-evpn-vxlan https://github.com/Juniper/OpenClos
  17. 17. Krok dalej Kontroler SDN 18 CLOUD  Sub-Optimal Device Utilization  Static & Inflexible  TCO (Capex, Opex)  Physically Constrained  Silo’ed  Large, Manual Device Config  Custom / Complex Policy Config  Specialized deployment knowledge Evolving Applications (on Resource Pool) Compute Storage LB Security Admin External Cloud Based Resources Virtualized Resource Pools No ACLs End-user Orchestrator / Controller All Policies (incl. ACLs) Virtual Network Virtual Network Resources Across DC’s All Challenges are solved …
  18. 18. Juniper Contrail 19 " Klocki Lego " VN VN VN Maszyny Wirtualne Maszyny klienckie i funkcje sieciowe Wirtualne Sieci Łączność sieciowa dla maszyn wirtualnych Bramy Połączenie sieci wirtualnych z fizycznymi VM VM VM G1 VM G3 VM R1 VM R2 VM R3 VN R BMS R4 VN G VM G2VM FW L3VPN
  19. 19. Juniper Contrail a urządzenia Juniper 20 ˥ L2 GW – QFX5100/QFX5110/QFX5200/QFX5300/QFX10k, MX (wszystkie modele) ˥ L3 GW – QFX5110/QFX5300/QFX10k, MX (wszystkie modele), vMX IP Fabric CONTRAIL CONTROLLER ORCHESTRATOR Host O/SvRouter Network / Storage orchestration Juniper L3 Gateway MX, QFX10K … Internet / WAN (Config, Control, Analytics, Svr Mgmt) (Windows, Linux ….) on BMS TOR QFX5K Compute orchestration Centralized PolicyDefinition Distributed PolicyEnforcement BGP BGP XMPP OVSDB
  20. 20. Juniper Contrail w środowiskach heterogenicznych 21
  21. 21. Urządzenia Juniper – wsparcie technologii Overlay 22 Product Layer 2 VXLAN GW Layer 3 VXLAN GW EVPN Signaling EX9200    MX    QFX5100/QFX5200  -  QFX5110/QFX5300    QFX10000   
  22. 22. Uproszczone Pozycjonowanie: Data Center Switching Use Case Identifying Features/Characteristics Recommended Architecture Recommended ProductsScale Network Mgmt. Orchestration Automation IT Datacenter Up to 32 racks / 2500 ports Single pane of glass management Vmware Built-in VCF Spine: QFX5k 10G ToR: QFX5k 1G ToR: EX4300 Private Cloud Up to 128 racks / 6000 ports Multiple tools, turnkey integration Vmware or Openstack & Contrail Built-in IP Fabric w/ Overlay Spine: QFX10k 10G ToR: QFX5k 1G ToR: EX4300 Telco Cloud 2000+ racks / 70,000 ports Custom tools and complex API integration Openstack & Contrail integration DevOps (Puppet, Chef, Ansible etc) IP Fabric w/ Overlay Spine: QFX10k 10G ToR: QFX5k 1G ToR: EX4300 Public Cloud (Hyper/Massive Scale DC) 2000+ racks / 70,000 ports Custom tools and complex API integration Openstack & Contrail integration DevOps (Puppet, Chef, Ansible etc) Scale Out IP Fabric Spine: QFX10k ToR: QFX5k Virtual Network Virtual Network
  23. 23. MetaFabric: Simple, Open, Smart Portfolio of Automation, SDN and Switching 24 CHOICE OF ORCHESTRATION & MANAGEMENT Automation & Orchestration ITSM & Applications CHOICE OF SDN AND OVERLAY ARCHITECTURE VMware Environments OpenStack Environments COMMON SWITCHING BUILDING BLOCKS LEAF SPINE OCX Series OPEN NETWORKING QFX10000 Line UP TO 480 × 100GbE QFX5k Line UP TO 96 × 10GbE FLEXIBLE ARCHITECTURES Virtual Chassis <240 SERVERS Virtual Chassis Fabric <1440 SERVERS IP Fabric/L3 Clos INFINITE SCALE QFabric <6144 SERVERS Junos Fusion <6144 SERVERS Apache Thrift QFX5k Line UP TO 32 × 40GbE

×