SlideShare a Scribd company logo
1 of 34
Download to read offline
Mellanox 소개 - 최적의 인터컨넥트 솔루션
© 2016 Mellanox Technologies 3- Mellanox Confidential -
 고성능, 초고속, 저지연 서버-스토리지 인터커넥트 제품의 선도 회사
• 업계 유일의 인피니밴드 FDR 56Gb/s 및 이더넷 10/40/56GbE 제품군
• 사용자 어플리케이션 데이터 대기시간 감소
• 데이터센터 인프라 투자수익 (ROI) 의 획기적 증가
 기능별 본사:
• R&D 및 기술 본사 – 이스라엘 요크네암 (Yokneam)
• 영업 및 마케팅 – 미국 캘리포니아 써니베일 (Sunnyvale)
• 전세계 1,439 여명의 직원 수 (2013년 12월 기준)
 탄탄한 재정 상태
• 2013년 기준 $390.9M 매출 기록
• 2014년 1 분기 $100M ~ $105M의 매출 예상
• 2013년 12월말 기준 $330.2M 가용 현금 (투자비 포함) 보유
멜라녹스는? Ticker: MLNX
이스라엘 요크네암 소재 멜라녹스 본사 (MTL)
© 2016 Mellanox Technologies 4- Mellanox Confidential -
멜라녹스의 주력 시장
Web 2.0 DB/EnterpriseHPC
10배 이상의 성능 맟
시뮬레이션 실행시간
향상
33% 이상 높은 GPU
성능
무제한의 확장성
최저 대기 시간
62% 더 빠른 실행시간
초당 42% 더 빠른 메시지
Cloud
12배 이상의
처리량
높은 대역폭에서 더
많은 유저 지원
SLAs 보장 및 향상
데이터베이스 쿼리
10배 이상 성능향상
4배 이상 빨라진
VM Migration
서버당 더 많은
가상머신과
가상머신당 더 높은
대역폭
Storage
하둡에서 2배 이상의
성능 향상
13배 이상의 메모리캐시
성능
4배 이상의 가격 절감과
성능향상
Mellanox는 스토리지 가속 소프트웨어를 제공합니다.
>80% 이상 IOPS (I/O operations per second)
Financial Services
© 2016 Mellanox Technologies 5- Mellanox Confidential -
엔드-투-엔드 인터커넥트 솔루션의 선도 회사
호스트/패브릭 기반 S/W통신 칩 스위치/게이트웨이어댑터 카드 케이블/모듈Metro / WAN
저장분석
Enabling the Use of Data
10Gb, 40Gb 그리고 100 Gigabit 기반의 속도
포괄적인 엔드-투-엔드 인피니밴드 / 이더넷 포트폴리오
© 2016 Mellanox Technologies 6- Mellanox Confidential -
Big Data 와 Web 2.0을 위한 비교할수 없는 ROI
Source: Company testing for order of magnitude improvement data
빅테이타 분석 (e.g. Hadoop)
• 더 많은 JOB을 병렬처리
• 노드/링크 페일 발생 후 더 빠른 rebalancing
HDFS로 더 빠른 데이터 로드
인메모리 캐싱 (e.g. Memcached)
• 초당 더 빠른 트랜잭션
• 더 빠른 응답/검색 시간
• 서버당 더 많은 유저와 클라이언트
성능 당 가격
• 같은 가격에 더 많은 대역폭
• GB / s의 당 낮은 가격
• GB / s의 당 낮은 전력
2X
13X
4X
© 2016 Mellanox Technologies 7- Mellanox Confidential -
RDMA over
InfiniBand or
Ethernet
RDMA 동작방식
어플리케이션 1
버퍼 1
유저커널하드웨어
어플리케이션 2
버퍼 1
OS
버퍼 r 1
NIC
OS
버퍼 1
NIC
TCP/IP
Mellanox NIC Mellanox NIC
© 2016 Mellanox Technologies 8- Mellanox Confidential -
인터커넥트 기술 적용에 따른 CPU 효율 차이
~88% CPU
Utilization
UserSpaceSystemSpace
~53% CPU
Utilization
~47% CPU
Overhead/Idle
~12% CPU
Overhead/Idle
RDMA 미사용시 RDMA 사용시
UserSpaceSystemSpace
© 2016 Mellanox Technologies 9- Mellanox Confidential -
빅데이타 : 동일 크러스터 환경에 두배의 하둡 워크로드 지원
 하둡 (Terasort) 벤치마크 결과에서 40%-50%의 수행 시간 감소
• Mellanox 10GbE + RDMA vs. competing 10GbE
Without Mellanox With Mellanox
1 Workload 1.5x-2x Workloads
© 2016 Mellanox Technologies 10- Mellanox Confidential -
 서버당 3배 정도의 가상머신 지원: 20 ~60 VMs
 보다 높은 스토리지 집적도 : 초 당 2배 이상의 처리량과 IOPS
• Atlantic.net은 인피니 밴드를 이용하여 아마존과 비교하여 적은 비용과 2배이상의 클라우드 I/O 성능을 달성함.
가상화 기반 클라우드 환경에서의 상면 비용 감소
Without Mellanox With Mellanox
VM VM
VM VM
VM VM
VMVM
VM VMVM VM
© 2016 Mellanox Technologies 11- Mellanox Confidential -
멜라녹스는 클라우드 환경에서 가장 적은 어플리케이션 비용 구현
Microsoft Windows Azure
90.2% 클라우드 효율성
응용프로그램당 33% 낮은 비용
Cloud
애플리케이션 성능은 10
배까지 향상
물리서버 당 3배 이상의 vm 증가
네트워크 및 스토리지 I/O 통합
응용 프로그램 당 32 % 낮은 비용
694% 높은 성능
© 2016 Mellanox Technologies 12- Mellanox Confidential -
“스토리지를 더 저렴하게 만들기 위해 더 많은
네트워크가 필요합니다!
Azure 저장소를 늘이는 방법은? 40GbE에서 RoCE (RDMA
over Converged Ethernet) 활성화 를 함으로써 파격적인
원가절감이 가능합니다.
고객 사례 – Microsoft Azure
: 최적의 Storage Scale
Microsoft Keynote at Open Networking Summit 2014 on RDMA
Keynote
Albert Greenberg, Microsoft
SDN Azure Infrastructure
© 2016 Mellanox Technologies 13- Mellanox Confidential -
“집약적인 연산을 사용하는 VMs -Azure에서 RDMA를
통한 40G 인피니밴드 엑세스는 많은 메모리를 사용하는
가상머신의 어플리케이션을 최적의 성능으로 구축할
수 있게 도와줍니다.”
고객 사례 – Microsoft Azure
:클라우드 환경에서의 최적의 어플리케이션 구동을 가능 케 하는 인피니밴드
Microsoft Keynote at TechEd North America Conference 2014
Brad Anderson
Corporate Vice President
Microsoft
© 2016 Mellanox Technologies 14- Mellanox Confidential -
마이크로 소프트 윈도우 서버 2012 및 SMB 3.0
 SMB 3.0 – 파일 공유 프로토콜 (vs. NFS, CIFS)
 엔터프라이즈 파일 스토리지 솔루션
 낮은 지연 시간, 높은 처리량, 낮은 CPU 오버 헤드
(이더넷에 비해 50 % 이하)
 낮은 비용과 높은 성능으로 파이버 채널을 대체
 SMB Direct Protocol 은 Windows Server 2012 에
통합된 멜라녹스 이더넷과 인피니밴드 RDMA 를 통해
기능 확대
 Microsoft HyperV-SMB 와 SQL-SMB 솔루션을 가속화
File Client File Server
SMB Client
User
Kernel
Disk
RDMA
Adapter
Network w/
RDMA support
RDMA
Adapter
SMB Server
Network w/
RDMA support
NTFS
SCSI
Application
FDR Delivers 10X Performance Improvement vs. 10GbE
© 2016 Mellanox Technologies 15- Mellanox Confidential -
Local
Single
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
SMB
Client
SMB 3.0 + 10GbE
(non-RDMA)
SMB
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
10 GbE
10GbE
SMB 3.0 + RDMA
(FDR InfiniBand)
SMB
Client
SMB
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
FDR IB
FDR IB
SMB 3.0 + RDMA
(QDR InfiniBand)
SMB
Client
SMB
Server
Fusion IOFusion IOFusion IOFusion-io
IO Micro
Benchmark
QDR IB
QDR IB
Microsoft SMB 3.0 성능 비교
© 2016 Mellanox Technologies 16- Mellanox Confidential -
FDR 56Gb/s 인피니밴드는 5X 이상의 높은 처리량 및
10GbE에 비해 50% 이하의 CPU 오버헤드를 제공
저렴한 비용으로 하이엔드 스토리지를 대체, 확장성 한계 극복
FDR 인피니밴드 처리량을 뛰어넘는 성능
© 2016 Mellanox Technologies 17- Mellanox Confidential -
스토리지 아키텍쳐의 변화 : 스토리지 계층화
Hot Data:
Flash
storage
Warm
Data:
15k SAS
HDDs
Cool Data:
NL/SATA HDDs
Cold Data:
Tape/Archive
CostPerGB
Performance
SATA
HDD
SAS
HDD
Flash
SSD
DRAM
300X Performance
4000X Performance
200XCost
50XCost
© 2016 Mellanox Technologies 18- Mellanox Confidential -
멜라녹스 - 스토리지 파트너
성능이 중시되는 RDMA 인터커넥트 시장에서 압도적인 시장 점유율
© 2016 Mellanox Technologies 19- Mellanox Confidential -
데이타 전송에서의 병목
+ = 12GB/s =
Server
24 x 2.5” SATA 3 SSDs
15 x 8Gb/s Fibre
Channel Ports
3 x 40Gb/s
2 x 56Gb/s
VPI RDMA Ports
또는
또는
10 x 10Gb/s iSCSI
Ports (with offload)
Interconnect 대역폭은 스토리지 성능 ROI를 결정
© 2016 Mellanox Technologies 20- Mellanox Confidential -
가격/성능 요소별
어댑터
카드
스위치
(포트당)
케이블
(3mPassive)
총
Connection
가격
Gb/s당
가격
승수
(Multiplier)
56Gb/s FDR InfiniBand $838 $319 $123 $1280 $24 1x
40Gb/s RoCE $538 $447 $114 $1099 $27 1.1x
10Gb/s iSCSI $299 $293 $46 $638 $64 2.7x
16Gb/s Fibre Channel $1150 $746 $29 $1925 $124 5.3x
8Gb/s Fibre Channel $729 $207 $29 $965 $151 6.4x
FDR IB
2 ports
12GB/s
40Gb/s RoCE
3 ports
12GB/s
10Gb/s iSCSI
10 ports
12GB/s
8Gb/s FC
12 ports
12GB/s
$11580 $6380 $3297 $2560
© 2016 Mellanox Technologies 21- Mellanox Confidential -
사례 - 델 Fluid Cache for SAN 을위한 Cache 네트워크에서의
활용
© 2016 Mellanox Technologies 22- Mellanox Confidential -
최적의 분산 파일 시스템 지원
멜라녹스 40G/56Gbps RDMA 사용 시 처리량과 IOPs
© 2016 Mellanox Technologies 23- Mellanox Confidential -
엔드-투-엔드 인터커넥트 솔루션의 선도 회사
호스트/패브릭 소프트웨어네트워킹 칩 스위치/게이트웨이어댑터 카드 인터컨넥트 모듈
/케이블
포괄적인 엔드-투-엔드 인피니밴드 / 이더넷 포트폴리오
Virtual Protocol Interconnect
Storage
Front / Back-End
Server / Compute Switch / Gateway
56G IB & FCoIB 56G InfiniBand
10/40/56GbE &
FCoE
10/40/56GbE
Fibre Channel
Virtual Protocol Interconnect
© 2016 Mellanox Technologies 24- Mellanox Confidential -
최고의 ROI – 스위치 실리콘 칩
 스위치의 실리콘 칩이 중요한 이유?
• 최고의 스위치 용량
• 최저 전력
• 최저 대기시간
0.95
1.44
2.5
0
0.5
1
1.5
2
2.5
3
Trident+ Trident2 SwitchX
스위치 용량 (Bpps)
1
0.5
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Trident+ Trident2 SwitchX
대기시간 (µsec)
3
2
0.4
0
0.5
1
1.5
2
2.5
3
3.5
Trident+ Trident2 SwitchX
전력 (Watt/Gb)
© 2016 Mellanox Technologies 25- Mellanox Confidential -
VPI (Virtual Protocol Interconnect) 기술
64 ports 10GbE
36 ports 40/56GbE
48 10GbE + 12 40/56GbE
36 ports IB up to 56Gb/s
8 VPI subnets
스위치 OS 레이어
Mezzanine Card
VPI Adapter VPI Switch
Ethernet: 10/40/56 Gb/s
InfiniBand:10/20/40/56 Gb/s
통합된 Fabric Manager
네트워킹 스토리지 클러스터링 관리t
어플리케이션
가속 엔진
LOM Adapter Card
3.0
데이터센터에서 캠퍼스 및
메트로 연결
© 2016 Mellanox Technologies 26- Mellanox Confidential -
 1RU 크기 제품으로 최고 용량 제공
• From 12 QSFP to 36 QSFP
• 64 x 10GbE
 멜라녹스만이 제공할 수 있는 가치 제안
• VPI (Virtual Protocol Interconnect)
• 56GbE
• End-to-End 솔루션 (IC칩, NIC, 스위치, SW, 케이블)
멜라녹스 이더넷 제품군
SX1036
The Ideal 40GbE ToR/Aggregation
SX1024
Non-blocking 10GbE 40GbE ToR
SX1016
Highest density 10GbE ToR
 Latency
• 220ns L2 latency
• 330ns L3 latency
 전력소모량 (SX1036)
• Under 1W per 10GbE interface
• 2.3W per 40GbE interface
• 0.6W per 10GbE of throughput
SX1012
Ideal storage/Database 10/40GbE Switch
© 2016 Mellanox Technologies 27- Mellanox Confidential -
멜라녹스 이더넷 솔루션 핵심 요약
 전세계 최고 속도의 I/O
• 10/40/56Gbps 이더넷 포트 제공
• 고속의 서버, 스토리지용 TOR 스위치로 적합
 전세계 최저 Latency – 220ns (40GE) : 경쟁사 제품 500ns 이상
• 초저지연 반도체 기술 및 제품 (SwitchX) 자체 보유
• 금융권의 초저지연 Application (DMA) 에 적합
 전세계 최저 전력 소모
• 10GE 포트당 1W 미만, 40GE 포트당 2.3W (경쟁사 대비 20% 미만)
• IC 칩에 PHY 가 집적되어 전력소모 최소화 – Green Data Center 에 최적화
 전세계 최고 포트 집적도 (1RU)
• 10GE 64포트, 40GE 36포트, 10GE 48포트 + 40GE 12포트
• Computer Cluster, Cloud, Big Data, Web2.0 등 데이터센터 내 다수의 서버 및 스토리지 연결에 적합
 동일한 HW 에서 이더넷 및 인피니밴드 동시 제공 (VPI – Virtual Protocol Interconnect)
• 고객의 결정에 따라 필요한 프로토콜 선택적 혹은 동시 사용 – 투자 보호
 RDMA 기술 적용으로 CPU Offload (RoCE)
• 통상의 TCP/IP 통신은 반드시 CPU Kernel 경유 – RDMA 적용시 Kernel Bypass (Zero Copy)
• CPU 부하 경감으로 서버당 보다 많은 Application (VM) 구동 가능 – 비용, 전력, Cable 사용 감소
 OpenFlow/SDN, NFV, 100GE 등 미래 통신기술 수용 가능
© 2016 Mellanox Technologies 28- Mellanox Confidential -
SX1036 6001 S4810 BNT G8264 QFX3500 7150S
Port Count 64 x SFP+
36 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
48 x SFP+
4 x QSFP
Max Throughput (Tb/s) 2.88 1.28 1.28 1.28 1.28 1.28
Latency (us) 0.23 1 0.8-1.2 0.8-1.2 0.8-1.2 0.4
Power (watt/GbE port) 0.17 0.32 0.34 0.51 0.57 ---
Non-blocking 10GbE ToR
(supports >32 servers per rack)      
Full Solution (NIC/Cable/Switch)
     
SX1036 경쟁력 분석
세계를 선도하는 이더넷 스위치 솔루션을 제공
© 2016 Mellanox Technologies 29- Mellanox Confidential -
획기적인 멜라녹스 VMS 장점
시스코 아리스타 멜라녹스
멜라녹스 장점
구분
Nexus
7018
Nexus
3016
Nexus
6004
DCS-7508 SX1036
사이즈 25U 36U 24U 22U 15U 실제 약 30% ~ 60% 감소
전력 소비량 ~10,000w 9,600w 19,800w 7,680w 1,500w
전력 소비량 약
80% ~ 90% 감소
가격 $550k $1,240k $1,500k $724k
$225k
(+$15k cables)
비용 약 60% ~ 85% 감소
East-West 솔루션
지연속도 (max.)
~30us ~3us ~3us ~29us <2us 지연속도 약 33% ~ 93% 감소
하드웨어 결함 후
대역폭 %
0% 97% 83% 50% 93%
© 2016 Mellanox Technologies 30- Mellanox Confidential -
고객사례- 호주 국립대학교 – 56GbE VMS 아키텍처
 시스템
• 200+ 노드 클라우드
• 56GbE VMS/FDR 업그레이드
 멜라녹스를 선호하는 이더넷 업체 소개
• 시스코UCS, 넥서스 6004를 선택
- RDMA를 통해 더 나은 성능과 가격을 제공함.
• Dell의 Force10 (브로드컴)
- 40/56Gb/s versus 10GbE
 멜라녹스 장점
• OFED 2.0을 지원하는 Ubuntu/KVM
• RoCE
• 종단간 56GbE (Cisco에는 기능 없음)
• VPI
• MLNX OpenStack 지원
Cisco
Core Router
40GbE
2x56GbE
224 servers @ 56GbE non-blocking architecture
14 ToR
Routers
SX1036
224 노드 56GbE Non-blocking 클러스터
Mellanox
VMS8 Agg.
Routers
SX1036
© 2016 Mellanox Technologies 31- Mellanox Confidential -
 피보탈이란
• 1000개이상의 노드를 활용하여 하둡 클러스터를 구성 할 수 있는
상용 하둡
 피보탈의 용도
• 아파치 하둡의 상용제품
• 하둡 인프라를 혁신적으로 가속화
• 대용량 데이터 분석을 위한 저장소
 피보탈 하둡의 사용자
• 소프트웨어 개발자 및 품질 기술자
• 분석가와 과학자
• 공급 업체 및 구성 요소 파트너
• 타사 응용 프로그램 공급자
 멜라녹스 장점
• VPI –이더넷및 인피니밴드
• 56Gb/s 처리량
• RDMA
고객사례 - 피보탈 (EMC와 EMC의 자회사 VMware)
http://www.mellanox.com/related-docs/case_studies/CS_AWB_VPI.pdf
© 2016 Mellanox Technologies 32- Mellanox Confidential -
고객사례 – 피보탈 네트워크 토폴로지
TOR
LEAF
SPINE
OSPF area 1
OSPF area 2
OSPF area 3
VMS
OSPF area 0
TOR
LEAF
SPINE
Racks 1-17 + 51
Racks 18-34 + 52
Racks 35-50+ 53 + 0
© 2016 Mellanox Technologies 33- Mellanox Confidential -
 1000개 이상의 노드에서 10GbE을 이용한 새로운 데이터분석 시스템을 위한 솔루션
고객사례 - Leading European Web 2.0 Company
 RDMA
 scale-out에 대한 라우팅 솔루션을 제공
SX1024
SX1036
 RDMA 를 위한 최고 성능의 네트워크 카드
 SX1024에서 Non-blocking Top-of-Rack
 종단간 솔루션에서 최고의 네트워크 제품
http://www.mellanox.com/pdf/case_studies/CS_Euro_Web2_RoCE.pdf
© 2016 Mellanox Technologies 34- Mellanox Confidential -
요약
 인터커넥트 기술은 비즈니스 성능에 매우 중요
• 어플리케이션 생산성 및 투자수익율 (ROI) 증대
 인터커넥트 시장의 꾸준한 성장
• HPC 시장에서의 성장을 바탕으로 Web 2.0, storage, database, cloud,
Big Data 시장으로 확대
 멜라녹스는 인터커넥트 시장을 선도하는 회사로 확고한 자리매김
• 세계 최고속 인터커넥트 기술 보유 및 제품 제공 회사
• 막강한 파트너십, 채널 협력관계 구축
• 다수의 고성장 시장에 획기적인 비즈니스 유익 제공
감사합니다.

More Related Content

What's hot

What's hot (20)

Wi-Fi 6: A New Era of Wireless Networking
Wi-Fi 6: A New Era of Wireless NetworkingWi-Fi 6: A New Era of Wireless Networking
Wi-Fi 6: A New Era of Wireless Networking
 
WiFi Technology & IEEE
WiFi Technology & IEEEWiFi Technology & IEEE
WiFi Technology & IEEE
 
Cisco Meraki Overview
Cisco Meraki OverviewCisco Meraki Overview
Cisco Meraki Overview
 
Wi fi technology
Wi fi technologyWi fi technology
Wi fi technology
 
Wireless USB
Wireless USBWireless USB
Wireless USB
 
Wi-Fi Wireless Fidelity
Wi-Fi Wireless FidelityWi-Fi Wireless Fidelity
Wi-Fi Wireless Fidelity
 
Hierarchical Storage Management
Hierarchical Storage ManagementHierarchical Storage Management
Hierarchical Storage Management
 
Meraki Datasheet MR16
Meraki Datasheet MR16Meraki Datasheet MR16
Meraki Datasheet MR16
 
Fortinet
FortinetFortinet
Fortinet
 
Generation of mobile communication systems
Generation of mobile communication systemsGeneration of mobile communication systems
Generation of mobile communication systems
 
Wi fi
Wi fiWi fi
Wi fi
 
Wi-max Technology PPT
Wi-max Technology PPTWi-max Technology PPT
Wi-max Technology PPT
 
Microwave towards 2020 presentation
Microwave towards 2020 presentationMicrowave towards 2020 presentation
Microwave towards 2020 presentation
 
Nokia Small Cell Portfolio_Oct 2023.pptx
Nokia Small Cell Portfolio_Oct 2023.pptxNokia Small Cell Portfolio_Oct 2023.pptx
Nokia Small Cell Portfolio_Oct 2023.pptx
 
Wlan security
Wlan securityWlan security
Wlan security
 
Wi fi / Wireless Fidelity
Wi fi / Wireless FidelityWi fi / Wireless Fidelity
Wi fi / Wireless Fidelity
 
Overview on NUMA
Overview on NUMAOverview on NUMA
Overview on NUMA
 
WiMAX
WiMAXWiMAX
WiMAX
 
Wi fi
Wi fiWi fi
Wi fi
 
What is SASE
What is SASEWhat is SASE
What is SASE
 

Viewers also liked

Mellanox presentation for Agile Conference June 2015
Mellanox presentation for Agile Conference June 2015Mellanox presentation for Agile Conference June 2015
Mellanox presentation for Agile Conference June 2015Chai Forsher
 
MetroX™ – Mellanox Long Haul Solutions
MetroX™ – Mellanox Long Haul SolutionsMetroX™ – Mellanox Long Haul Solutions
MetroX™ – Mellanox Long Haul SolutionsMellanox Technologies
 
InfiniBand Strengthens Leadership as the Interconnect Of Choice
InfiniBand Strengthens Leadership as the Interconnect Of ChoiceInfiniBand Strengthens Leadership as the Interconnect Of Choice
InfiniBand Strengthens Leadership as the Interconnect Of ChoiceMellanox Technologies
 
Mellanox hpc update @ hpcday 2012 kiev
Mellanox hpc update @ hpcday 2012 kievMellanox hpc update @ hpcday 2012 kiev
Mellanox hpc update @ hpcday 2012 kievVolodymyr Saviak
 
Announcing the Mellanox ConnectX-5 100G InfiniBand Adapter
Announcing the Mellanox ConnectX-5 100G InfiniBand AdapterAnnouncing the Mellanox ConnectX-5 100G InfiniBand Adapter
Announcing the Mellanox ConnectX-5 100G InfiniBand Adapterinside-BigData.com
 
Interconnect Your Future With Mellanox
Interconnect Your Future With MellanoxInterconnect Your Future With Mellanox
Interconnect Your Future With MellanoxMellanox Technologies
 
Mellanox Announcements at SC15
Mellanox Announcements at SC15Mellanox Announcements at SC15
Mellanox Announcements at SC15inside-BigData.com
 
Mellanox hpc day 2011 kiev
Mellanox hpc day 2011 kievMellanox hpc day 2011 kiev
Mellanox hpc day 2011 kievVolodymyr Saviak
 
Storage, Cloud, Web 2.0, Big Data Driving Growth
Storage, Cloud, Web 2.0, Big Data Driving GrowthStorage, Cloud, Web 2.0, Big Data Driving Growth
Storage, Cloud, Web 2.0, Big Data Driving GrowthMellanox Technologies
 
Open Ethernet - открытый подход к построению Ethernet сетей
Open Ethernet - открытый подход к построению Ethernet сетейOpen Ethernet - открытый подход к построению Ethernet сетей
Open Ethernet - открытый подход к построению Ethernet сетейARCCN
 
Advancing Applications Performance With InfiniBand
Advancing Applications Performance With InfiniBandAdvancing Applications Performance With InfiniBand
Advancing Applications Performance With InfiniBandMellanox Technologies
 
Big Data Benchmarking with RDMA solutions
Big Data Benchmarking with RDMA solutions Big Data Benchmarking with RDMA solutions
Big Data Benchmarking with RDMA solutions Mellanox Technologies
 
Open Ethernet: an open-source approach to modern network design
Open Ethernet: an open-source approach to modern network designOpen Ethernet: an open-source approach to modern network design
Open Ethernet: an open-source approach to modern network designAlexander Petrovskiy
 

Viewers also liked (20)

Interconnect Your Future
Interconnect Your FutureInterconnect Your Future
Interconnect Your Future
 
Mellanox 2013 Analyst Day
Mellanox 2013 Analyst DayMellanox 2013 Analyst Day
Mellanox 2013 Analyst Day
 
Mellanox presentation for Agile Conference June 2015
Mellanox presentation for Agile Conference June 2015Mellanox presentation for Agile Conference June 2015
Mellanox presentation for Agile Conference June 2015
 
MetroX™ – Mellanox Long Haul Solutions
MetroX™ – Mellanox Long Haul SolutionsMetroX™ – Mellanox Long Haul Solutions
MetroX™ – Mellanox Long Haul Solutions
 
InfiniBand Strengthens Leadership as the Interconnect Of Choice
InfiniBand Strengthens Leadership as the Interconnect Of ChoiceInfiniBand Strengthens Leadership as the Interconnect Of Choice
InfiniBand Strengthens Leadership as the Interconnect Of Choice
 
Mellanox hpc update @ hpcday 2012 kiev
Mellanox hpc update @ hpcday 2012 kievMellanox hpc update @ hpcday 2012 kiev
Mellanox hpc update @ hpcday 2012 kiev
 
Mellanox IBM
Mellanox IBMMellanox IBM
Mellanox IBM
 
Announcing the Mellanox ConnectX-5 100G InfiniBand Adapter
Announcing the Mellanox ConnectX-5 100G InfiniBand AdapterAnnouncing the Mellanox ConnectX-5 100G InfiniBand Adapter
Announcing the Mellanox ConnectX-5 100G InfiniBand Adapter
 
Interconnect Your Future With Mellanox
Interconnect Your Future With MellanoxInterconnect Your Future With Mellanox
Interconnect Your Future With Mellanox
 
Mellanox Announcements at SC15
Mellanox Announcements at SC15Mellanox Announcements at SC15
Mellanox Announcements at SC15
 
Mellanox hpc day 2011 kiev
Mellanox hpc day 2011 kievMellanox hpc day 2011 kiev
Mellanox hpc day 2011 kiev
 
Scale Out Database Solution
Scale Out Database SolutionScale Out Database Solution
Scale Out Database Solution
 
Storage, Cloud, Web 2.0, Big Data Driving Growth
Storage, Cloud, Web 2.0, Big Data Driving GrowthStorage, Cloud, Web 2.0, Big Data Driving Growth
Storage, Cloud, Web 2.0, Big Data Driving Growth
 
Mellanox's Operational Excellence
Mellanox's Operational ExcellenceMellanox's Operational Excellence
Mellanox's Operational Excellence
 
Mellanox Market Leading Solutions
Mellanox Market Leading SolutionsMellanox Market Leading Solutions
Mellanox Market Leading Solutions
 
Open Ethernet - открытый подход к построению Ethernet сетей
Open Ethernet - открытый подход к построению Ethernet сетейOpen Ethernet - открытый подход к построению Ethernet сетей
Open Ethernet - открытый подход к построению Ethernet сетей
 
Mellanox's Technological Advantage
Mellanox's Technological AdvantageMellanox's Technological Advantage
Mellanox's Technological Advantage
 
Advancing Applications Performance With InfiniBand
Advancing Applications Performance With InfiniBandAdvancing Applications Performance With InfiniBand
Advancing Applications Performance With InfiniBand
 
Big Data Benchmarking with RDMA solutions
Big Data Benchmarking with RDMA solutions Big Data Benchmarking with RDMA solutions
Big Data Benchmarking with RDMA solutions
 
Open Ethernet: an open-source approach to modern network design
Open Ethernet: an open-source approach to modern network designOpen Ethernet: an open-source approach to modern network design
Open Ethernet: an open-source approach to modern network design
 

Similar to Mellanox introduction 2016 03-28_hjh

cdit hci zerto '소통하는 세미나' 소개자료(201705)
cdit hci zerto '소통하는 세미나' 소개자료(201705)cdit hci zerto '소통하는 세미나' 소개자료(201705)
cdit hci zerto '소통하는 세미나' 소개자료(201705)CDIT-HCI
 
Linux one brief_edm_202002
Linux one brief_edm_202002Linux one brief_edm_202002
Linux one brief_edm_202002jiyoungkim158
 
Network virtualization for the better understanding of Data Center Network
Network virtualization for the better understanding of Data Center NetworkNetwork virtualization for the better understanding of Data Center Network
Network virtualization for the better understanding of Data Center NetworkInho Kang
 
No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...
No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...
No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...Jean Ryu
 
[2018] 오픈스택 5년 운영의 경험
[2018] 오픈스택 5년 운영의 경험[2018] 오픈스택 5년 운영의 경험
[2018] 오픈스택 5년 운영의 경험NHN FORWARD
 
NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823
NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823
NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823Jongsoo Jeong
 
[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution
[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution
[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solutionOpenStack Korea Community
 
[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트
[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트
[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트OpenStack Korea Community
 
[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX
[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX
[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDXOpenStack Korea Community
 
차세대 네트워크, NCS로 효율적이고 안정되게!
차세대 네트워크, NCS로 효율적이고 안정되게! 차세대 네트워크, NCS로 효율적이고 안정되게!
차세대 네트워크, NCS로 효율적이고 안정되게! CiscoKorea
 
PowerEdge Blade 표준제안서.pptx
PowerEdge Blade 표준제안서.pptxPowerEdge Blade 표준제안서.pptx
PowerEdge Blade 표준제안서.pptxAlexanderPischulin1
 
OPEN_POWER8_SESSION_20150316
OPEN_POWER8_SESSION_20150316OPEN_POWER8_SESSION_20150316
OPEN_POWER8_SESSION_20150316기한 김
 
[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례
[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례
[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례(Joe), Sanghun Kim
 
[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...
[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...
[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...OpenStack Korea Community
 
Ic922 ac922 e dm_202008
Ic922 ac922 e dm_202008Ic922 ac922 e dm_202008
Ic922 ac922 e dm_202008jiyoungkim158
 
Next generation cloud data center technologies
Next generation cloud data center technologiesNext generation cloud data center technologies
Next generation cloud data center technologieshybrid cloud
 
SDN입문 (Overlay and Underlay)
SDN입문 (Overlay and Underlay)SDN입문 (Overlay and Underlay)
SDN입문 (Overlay and Underlay)NAIM Networks, Inc.
 
Cloud datacenter network architecture (2014)
Cloud datacenter network architecture (2014)Cloud datacenter network architecture (2014)
Cloud datacenter network architecture (2014)Gasida Seo
 
Maxscale 소개 1.1.1
Maxscale 소개 1.1.1Maxscale 소개 1.1.1
Maxscale 소개 1.1.1NeoClova
 
NexGen overview_201705
NexGen overview_201705NexGen overview_201705
NexGen overview_201705CDIT-HCI
 

Similar to Mellanox introduction 2016 03-28_hjh (20)

cdit hci zerto '소통하는 세미나' 소개자료(201705)
cdit hci zerto '소통하는 세미나' 소개자료(201705)cdit hci zerto '소통하는 세미나' 소개자료(201705)
cdit hci zerto '소통하는 세미나' 소개자료(201705)
 
Linux one brief_edm_202002
Linux one brief_edm_202002Linux one brief_edm_202002
Linux one brief_edm_202002
 
Network virtualization for the better understanding of Data Center Network
Network virtualization for the better understanding of Data Center NetworkNetwork virtualization for the better understanding of Data Center Network
Network virtualization for the better understanding of Data Center Network
 
No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...
No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...
No trade-offs: 안전하고, 빠르고, 안정적인 네트워크 구축하기 / Building secure, fast, and reliabl...
 
[2018] 오픈스택 5년 운영의 경험
[2018] 오픈스택 5년 운영의 경험[2018] 오픈스택 5년 운영의 경험
[2018] 오픈스택 5년 운영의 경험
 
NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823
NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823
NanoQplus for EFM32 - EnergyMicro Seminar Korea 20120823
 
[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution
[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution
[OpenStack Days Korea 2016] Innovating OpenStack Network with SDN solution
 
[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트
[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트
[OpenStack Days Korea 2016] Track3 - 방송제작용 UHD 스트로지 구성 및 테스트
 
[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX
[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX
[OpenInfra Days Korea 2018] (Track 2) 오픈스택 기반 온프레미스 및 멀티클라우드 연동 사례: IXcloud KDX
 
차세대 네트워크, NCS로 효율적이고 안정되게!
차세대 네트워크, NCS로 효율적이고 안정되게! 차세대 네트워크, NCS로 효율적이고 안정되게!
차세대 네트워크, NCS로 효율적이고 안정되게!
 
PowerEdge Blade 표준제안서.pptx
PowerEdge Blade 표준제안서.pptxPowerEdge Blade 표준제안서.pptx
PowerEdge Blade 표준제안서.pptx
 
OPEN_POWER8_SESSION_20150316
OPEN_POWER8_SESSION_20150316OPEN_POWER8_SESSION_20150316
OPEN_POWER8_SESSION_20150316
 
[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례
[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례
[IBM 김상훈] AI 최적화 플랫폼 IBM AC922 소개와 활용 사례
 
[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...
[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...
[OpenInfra Days Korea 2018] (Track 3) - SDN/NFV enabled Openstack Platform : ...
 
Ic922 ac922 e dm_202008
Ic922 ac922 e dm_202008Ic922 ac922 e dm_202008
Ic922 ac922 e dm_202008
 
Next generation cloud data center technologies
Next generation cloud data center technologiesNext generation cloud data center technologies
Next generation cloud data center technologies
 
SDN입문 (Overlay and Underlay)
SDN입문 (Overlay and Underlay)SDN입문 (Overlay and Underlay)
SDN입문 (Overlay and Underlay)
 
Cloud datacenter network architecture (2014)
Cloud datacenter network architecture (2014)Cloud datacenter network architecture (2014)
Cloud datacenter network architecture (2014)
 
Maxscale 소개 1.1.1
Maxscale 소개 1.1.1Maxscale 소개 1.1.1
Maxscale 소개 1.1.1
 
NexGen overview_201705
NexGen overview_201705NexGen overview_201705
NexGen overview_201705
 

Mellanox introduction 2016 03-28_hjh

  • 1. Mellanox 소개 - 최적의 인터컨넥트 솔루션
  • 2. © 2016 Mellanox Technologies 3- Mellanox Confidential -  고성능, 초고속, 저지연 서버-스토리지 인터커넥트 제품의 선도 회사 • 업계 유일의 인피니밴드 FDR 56Gb/s 및 이더넷 10/40/56GbE 제품군 • 사용자 어플리케이션 데이터 대기시간 감소 • 데이터센터 인프라 투자수익 (ROI) 의 획기적 증가  기능별 본사: • R&D 및 기술 본사 – 이스라엘 요크네암 (Yokneam) • 영업 및 마케팅 – 미국 캘리포니아 써니베일 (Sunnyvale) • 전세계 1,439 여명의 직원 수 (2013년 12월 기준)  탄탄한 재정 상태 • 2013년 기준 $390.9M 매출 기록 • 2014년 1 분기 $100M ~ $105M의 매출 예상 • 2013년 12월말 기준 $330.2M 가용 현금 (투자비 포함) 보유 멜라녹스는? Ticker: MLNX 이스라엘 요크네암 소재 멜라녹스 본사 (MTL)
  • 3. © 2016 Mellanox Technologies 4- Mellanox Confidential - 멜라녹스의 주력 시장 Web 2.0 DB/EnterpriseHPC 10배 이상의 성능 맟 시뮬레이션 실행시간 향상 33% 이상 높은 GPU 성능 무제한의 확장성 최저 대기 시간 62% 더 빠른 실행시간 초당 42% 더 빠른 메시지 Cloud 12배 이상의 처리량 높은 대역폭에서 더 많은 유저 지원 SLAs 보장 및 향상 데이터베이스 쿼리 10배 이상 성능향상 4배 이상 빨라진 VM Migration 서버당 더 많은 가상머신과 가상머신당 더 높은 대역폭 Storage 하둡에서 2배 이상의 성능 향상 13배 이상의 메모리캐시 성능 4배 이상의 가격 절감과 성능향상 Mellanox는 스토리지 가속 소프트웨어를 제공합니다. >80% 이상 IOPS (I/O operations per second) Financial Services
  • 4. © 2016 Mellanox Technologies 5- Mellanox Confidential - 엔드-투-엔드 인터커넥트 솔루션의 선도 회사 호스트/패브릭 기반 S/W통신 칩 스위치/게이트웨이어댑터 카드 케이블/모듈Metro / WAN 저장분석 Enabling the Use of Data 10Gb, 40Gb 그리고 100 Gigabit 기반의 속도 포괄적인 엔드-투-엔드 인피니밴드 / 이더넷 포트폴리오
  • 5. © 2016 Mellanox Technologies 6- Mellanox Confidential - Big Data 와 Web 2.0을 위한 비교할수 없는 ROI Source: Company testing for order of magnitude improvement data 빅테이타 분석 (e.g. Hadoop) • 더 많은 JOB을 병렬처리 • 노드/링크 페일 발생 후 더 빠른 rebalancing HDFS로 더 빠른 데이터 로드 인메모리 캐싱 (e.g. Memcached) • 초당 더 빠른 트랜잭션 • 더 빠른 응답/검색 시간 • 서버당 더 많은 유저와 클라이언트 성능 당 가격 • 같은 가격에 더 많은 대역폭 • GB / s의 당 낮은 가격 • GB / s의 당 낮은 전력 2X 13X 4X
  • 6. © 2016 Mellanox Technologies 7- Mellanox Confidential - RDMA over InfiniBand or Ethernet RDMA 동작방식 어플리케이션 1 버퍼 1 유저커널하드웨어 어플리케이션 2 버퍼 1 OS 버퍼 r 1 NIC OS 버퍼 1 NIC TCP/IP Mellanox NIC Mellanox NIC
  • 7. © 2016 Mellanox Technologies 8- Mellanox Confidential - 인터커넥트 기술 적용에 따른 CPU 효율 차이 ~88% CPU Utilization UserSpaceSystemSpace ~53% CPU Utilization ~47% CPU Overhead/Idle ~12% CPU Overhead/Idle RDMA 미사용시 RDMA 사용시 UserSpaceSystemSpace
  • 8. © 2016 Mellanox Technologies 9- Mellanox Confidential - 빅데이타 : 동일 크러스터 환경에 두배의 하둡 워크로드 지원  하둡 (Terasort) 벤치마크 결과에서 40%-50%의 수행 시간 감소 • Mellanox 10GbE + RDMA vs. competing 10GbE Without Mellanox With Mellanox 1 Workload 1.5x-2x Workloads
  • 9. © 2016 Mellanox Technologies 10- Mellanox Confidential -  서버당 3배 정도의 가상머신 지원: 20 ~60 VMs  보다 높은 스토리지 집적도 : 초 당 2배 이상의 처리량과 IOPS • Atlantic.net은 인피니 밴드를 이용하여 아마존과 비교하여 적은 비용과 2배이상의 클라우드 I/O 성능을 달성함. 가상화 기반 클라우드 환경에서의 상면 비용 감소 Without Mellanox With Mellanox VM VM VM VM VM VM VMVM VM VMVM VM
  • 10. © 2016 Mellanox Technologies 11- Mellanox Confidential - 멜라녹스는 클라우드 환경에서 가장 적은 어플리케이션 비용 구현 Microsoft Windows Azure 90.2% 클라우드 효율성 응용프로그램당 33% 낮은 비용 Cloud 애플리케이션 성능은 10 배까지 향상 물리서버 당 3배 이상의 vm 증가 네트워크 및 스토리지 I/O 통합 응용 프로그램 당 32 % 낮은 비용 694% 높은 성능
  • 11. © 2016 Mellanox Technologies 12- Mellanox Confidential - “스토리지를 더 저렴하게 만들기 위해 더 많은 네트워크가 필요합니다! Azure 저장소를 늘이는 방법은? 40GbE에서 RoCE (RDMA over Converged Ethernet) 활성화 를 함으로써 파격적인 원가절감이 가능합니다. 고객 사례 – Microsoft Azure : 최적의 Storage Scale Microsoft Keynote at Open Networking Summit 2014 on RDMA Keynote Albert Greenberg, Microsoft SDN Azure Infrastructure
  • 12. © 2016 Mellanox Technologies 13- Mellanox Confidential - “집약적인 연산을 사용하는 VMs -Azure에서 RDMA를 통한 40G 인피니밴드 엑세스는 많은 메모리를 사용하는 가상머신의 어플리케이션을 최적의 성능으로 구축할 수 있게 도와줍니다.” 고객 사례 – Microsoft Azure :클라우드 환경에서의 최적의 어플리케이션 구동을 가능 케 하는 인피니밴드 Microsoft Keynote at TechEd North America Conference 2014 Brad Anderson Corporate Vice President Microsoft
  • 13. © 2016 Mellanox Technologies 14- Mellanox Confidential - 마이크로 소프트 윈도우 서버 2012 및 SMB 3.0  SMB 3.0 – 파일 공유 프로토콜 (vs. NFS, CIFS)  엔터프라이즈 파일 스토리지 솔루션  낮은 지연 시간, 높은 처리량, 낮은 CPU 오버 헤드 (이더넷에 비해 50 % 이하)  낮은 비용과 높은 성능으로 파이버 채널을 대체  SMB Direct Protocol 은 Windows Server 2012 에 통합된 멜라녹스 이더넷과 인피니밴드 RDMA 를 통해 기능 확대  Microsoft HyperV-SMB 와 SQL-SMB 솔루션을 가속화 File Client File Server SMB Client User Kernel Disk RDMA Adapter Network w/ RDMA support RDMA Adapter SMB Server Network w/ RDMA support NTFS SCSI Application FDR Delivers 10X Performance Improvement vs. 10GbE
  • 14. © 2016 Mellanox Technologies 15- Mellanox Confidential - Local Single Server Fusion IOFusion IOFusion IOFusion-io IO Micro Benchmark SMB Client SMB 3.0 + 10GbE (non-RDMA) SMB Server Fusion IOFusion IOFusion IOFusion-io IO Micro Benchmark 10 GbE 10GbE SMB 3.0 + RDMA (FDR InfiniBand) SMB Client SMB Server Fusion IOFusion IOFusion IOFusion-io IO Micro Benchmark FDR IB FDR IB SMB 3.0 + RDMA (QDR InfiniBand) SMB Client SMB Server Fusion IOFusion IOFusion IOFusion-io IO Micro Benchmark QDR IB QDR IB Microsoft SMB 3.0 성능 비교
  • 15. © 2016 Mellanox Technologies 16- Mellanox Confidential - FDR 56Gb/s 인피니밴드는 5X 이상의 높은 처리량 및 10GbE에 비해 50% 이하의 CPU 오버헤드를 제공 저렴한 비용으로 하이엔드 스토리지를 대체, 확장성 한계 극복 FDR 인피니밴드 처리량을 뛰어넘는 성능
  • 16. © 2016 Mellanox Technologies 17- Mellanox Confidential - 스토리지 아키텍쳐의 변화 : 스토리지 계층화 Hot Data: Flash storage Warm Data: 15k SAS HDDs Cool Data: NL/SATA HDDs Cold Data: Tape/Archive CostPerGB Performance SATA HDD SAS HDD Flash SSD DRAM 300X Performance 4000X Performance 200XCost 50XCost
  • 17. © 2016 Mellanox Technologies 18- Mellanox Confidential - 멜라녹스 - 스토리지 파트너 성능이 중시되는 RDMA 인터커넥트 시장에서 압도적인 시장 점유율
  • 18. © 2016 Mellanox Technologies 19- Mellanox Confidential - 데이타 전송에서의 병목 + = 12GB/s = Server 24 x 2.5” SATA 3 SSDs 15 x 8Gb/s Fibre Channel Ports 3 x 40Gb/s 2 x 56Gb/s VPI RDMA Ports 또는 또는 10 x 10Gb/s iSCSI Ports (with offload) Interconnect 대역폭은 스토리지 성능 ROI를 결정
  • 19. © 2016 Mellanox Technologies 20- Mellanox Confidential - 가격/성능 요소별 어댑터 카드 스위치 (포트당) 케이블 (3mPassive) 총 Connection 가격 Gb/s당 가격 승수 (Multiplier) 56Gb/s FDR InfiniBand $838 $319 $123 $1280 $24 1x 40Gb/s RoCE $538 $447 $114 $1099 $27 1.1x 10Gb/s iSCSI $299 $293 $46 $638 $64 2.7x 16Gb/s Fibre Channel $1150 $746 $29 $1925 $124 5.3x 8Gb/s Fibre Channel $729 $207 $29 $965 $151 6.4x FDR IB 2 ports 12GB/s 40Gb/s RoCE 3 ports 12GB/s 10Gb/s iSCSI 10 ports 12GB/s 8Gb/s FC 12 ports 12GB/s $11580 $6380 $3297 $2560
  • 20. © 2016 Mellanox Technologies 21- Mellanox Confidential - 사례 - 델 Fluid Cache for SAN 을위한 Cache 네트워크에서의 활용
  • 21. © 2016 Mellanox Technologies 22- Mellanox Confidential - 최적의 분산 파일 시스템 지원 멜라녹스 40G/56Gbps RDMA 사용 시 처리량과 IOPs
  • 22. © 2016 Mellanox Technologies 23- Mellanox Confidential - 엔드-투-엔드 인터커넥트 솔루션의 선도 회사 호스트/패브릭 소프트웨어네트워킹 칩 스위치/게이트웨이어댑터 카드 인터컨넥트 모듈 /케이블 포괄적인 엔드-투-엔드 인피니밴드 / 이더넷 포트폴리오 Virtual Protocol Interconnect Storage Front / Back-End Server / Compute Switch / Gateway 56G IB & FCoIB 56G InfiniBand 10/40/56GbE & FCoE 10/40/56GbE Fibre Channel Virtual Protocol Interconnect
  • 23. © 2016 Mellanox Technologies 24- Mellanox Confidential - 최고의 ROI – 스위치 실리콘 칩  스위치의 실리콘 칩이 중요한 이유? • 최고의 스위치 용량 • 최저 전력 • 최저 대기시간 0.95 1.44 2.5 0 0.5 1 1.5 2 2.5 3 Trident+ Trident2 SwitchX 스위치 용량 (Bpps) 1 0.5 0.2 0 0.2 0.4 0.6 0.8 1 1.2 Trident+ Trident2 SwitchX 대기시간 (µsec) 3 2 0.4 0 0.5 1 1.5 2 2.5 3 3.5 Trident+ Trident2 SwitchX 전력 (Watt/Gb)
  • 24. © 2016 Mellanox Technologies 25- Mellanox Confidential - VPI (Virtual Protocol Interconnect) 기술 64 ports 10GbE 36 ports 40/56GbE 48 10GbE + 12 40/56GbE 36 ports IB up to 56Gb/s 8 VPI subnets 스위치 OS 레이어 Mezzanine Card VPI Adapter VPI Switch Ethernet: 10/40/56 Gb/s InfiniBand:10/20/40/56 Gb/s 통합된 Fabric Manager 네트워킹 스토리지 클러스터링 관리t 어플리케이션 가속 엔진 LOM Adapter Card 3.0 데이터센터에서 캠퍼스 및 메트로 연결
  • 25. © 2016 Mellanox Technologies 26- Mellanox Confidential -  1RU 크기 제품으로 최고 용량 제공 • From 12 QSFP to 36 QSFP • 64 x 10GbE  멜라녹스만이 제공할 수 있는 가치 제안 • VPI (Virtual Protocol Interconnect) • 56GbE • End-to-End 솔루션 (IC칩, NIC, 스위치, SW, 케이블) 멜라녹스 이더넷 제품군 SX1036 The Ideal 40GbE ToR/Aggregation SX1024 Non-blocking 10GbE 40GbE ToR SX1016 Highest density 10GbE ToR  Latency • 220ns L2 latency • 330ns L3 latency  전력소모량 (SX1036) • Under 1W per 10GbE interface • 2.3W per 40GbE interface • 0.6W per 10GbE of throughput SX1012 Ideal storage/Database 10/40GbE Switch
  • 26. © 2016 Mellanox Technologies 27- Mellanox Confidential - 멜라녹스 이더넷 솔루션 핵심 요약  전세계 최고 속도의 I/O • 10/40/56Gbps 이더넷 포트 제공 • 고속의 서버, 스토리지용 TOR 스위치로 적합  전세계 최저 Latency – 220ns (40GE) : 경쟁사 제품 500ns 이상 • 초저지연 반도체 기술 및 제품 (SwitchX) 자체 보유 • 금융권의 초저지연 Application (DMA) 에 적합  전세계 최저 전력 소모 • 10GE 포트당 1W 미만, 40GE 포트당 2.3W (경쟁사 대비 20% 미만) • IC 칩에 PHY 가 집적되어 전력소모 최소화 – Green Data Center 에 최적화  전세계 최고 포트 집적도 (1RU) • 10GE 64포트, 40GE 36포트, 10GE 48포트 + 40GE 12포트 • Computer Cluster, Cloud, Big Data, Web2.0 등 데이터센터 내 다수의 서버 및 스토리지 연결에 적합  동일한 HW 에서 이더넷 및 인피니밴드 동시 제공 (VPI – Virtual Protocol Interconnect) • 고객의 결정에 따라 필요한 프로토콜 선택적 혹은 동시 사용 – 투자 보호  RDMA 기술 적용으로 CPU Offload (RoCE) • 통상의 TCP/IP 통신은 반드시 CPU Kernel 경유 – RDMA 적용시 Kernel Bypass (Zero Copy) • CPU 부하 경감으로 서버당 보다 많은 Application (VM) 구동 가능 – 비용, 전력, Cable 사용 감소  OpenFlow/SDN, NFV, 100GE 등 미래 통신기술 수용 가능
  • 27. © 2016 Mellanox Technologies 28- Mellanox Confidential - SX1036 6001 S4810 BNT G8264 QFX3500 7150S Port Count 64 x SFP+ 36 x QSFP 48 x SFP+ 4 x QSFP 48 x SFP+ 4 x QSFP 48 x SFP+ 4 x QSFP 48 x SFP+ 4 x QSFP 48 x SFP+ 4 x QSFP Max Throughput (Tb/s) 2.88 1.28 1.28 1.28 1.28 1.28 Latency (us) 0.23 1 0.8-1.2 0.8-1.2 0.8-1.2 0.4 Power (watt/GbE port) 0.17 0.32 0.34 0.51 0.57 --- Non-blocking 10GbE ToR (supports >32 servers per rack)       Full Solution (NIC/Cable/Switch)       SX1036 경쟁력 분석 세계를 선도하는 이더넷 스위치 솔루션을 제공
  • 28. © 2016 Mellanox Technologies 29- Mellanox Confidential - 획기적인 멜라녹스 VMS 장점 시스코 아리스타 멜라녹스 멜라녹스 장점 구분 Nexus 7018 Nexus 3016 Nexus 6004 DCS-7508 SX1036 사이즈 25U 36U 24U 22U 15U 실제 약 30% ~ 60% 감소 전력 소비량 ~10,000w 9,600w 19,800w 7,680w 1,500w 전력 소비량 약 80% ~ 90% 감소 가격 $550k $1,240k $1,500k $724k $225k (+$15k cables) 비용 약 60% ~ 85% 감소 East-West 솔루션 지연속도 (max.) ~30us ~3us ~3us ~29us <2us 지연속도 약 33% ~ 93% 감소 하드웨어 결함 후 대역폭 % 0% 97% 83% 50% 93%
  • 29. © 2016 Mellanox Technologies 30- Mellanox Confidential - 고객사례- 호주 국립대학교 – 56GbE VMS 아키텍처  시스템 • 200+ 노드 클라우드 • 56GbE VMS/FDR 업그레이드  멜라녹스를 선호하는 이더넷 업체 소개 • 시스코UCS, 넥서스 6004를 선택 - RDMA를 통해 더 나은 성능과 가격을 제공함. • Dell의 Force10 (브로드컴) - 40/56Gb/s versus 10GbE  멜라녹스 장점 • OFED 2.0을 지원하는 Ubuntu/KVM • RoCE • 종단간 56GbE (Cisco에는 기능 없음) • VPI • MLNX OpenStack 지원 Cisco Core Router 40GbE 2x56GbE 224 servers @ 56GbE non-blocking architecture 14 ToR Routers SX1036 224 노드 56GbE Non-blocking 클러스터 Mellanox VMS8 Agg. Routers SX1036
  • 30. © 2016 Mellanox Technologies 31- Mellanox Confidential -  피보탈이란 • 1000개이상의 노드를 활용하여 하둡 클러스터를 구성 할 수 있는 상용 하둡  피보탈의 용도 • 아파치 하둡의 상용제품 • 하둡 인프라를 혁신적으로 가속화 • 대용량 데이터 분석을 위한 저장소  피보탈 하둡의 사용자 • 소프트웨어 개발자 및 품질 기술자 • 분석가와 과학자 • 공급 업체 및 구성 요소 파트너 • 타사 응용 프로그램 공급자  멜라녹스 장점 • VPI –이더넷및 인피니밴드 • 56Gb/s 처리량 • RDMA 고객사례 - 피보탈 (EMC와 EMC의 자회사 VMware) http://www.mellanox.com/related-docs/case_studies/CS_AWB_VPI.pdf
  • 31. © 2016 Mellanox Technologies 32- Mellanox Confidential - 고객사례 – 피보탈 네트워크 토폴로지 TOR LEAF SPINE OSPF area 1 OSPF area 2 OSPF area 3 VMS OSPF area 0 TOR LEAF SPINE Racks 1-17 + 51 Racks 18-34 + 52 Racks 35-50+ 53 + 0
  • 32. © 2016 Mellanox Technologies 33- Mellanox Confidential -  1000개 이상의 노드에서 10GbE을 이용한 새로운 데이터분석 시스템을 위한 솔루션 고객사례 - Leading European Web 2.0 Company  RDMA  scale-out에 대한 라우팅 솔루션을 제공 SX1024 SX1036  RDMA 를 위한 최고 성능의 네트워크 카드  SX1024에서 Non-blocking Top-of-Rack  종단간 솔루션에서 최고의 네트워크 제품 http://www.mellanox.com/pdf/case_studies/CS_Euro_Web2_RoCE.pdf
  • 33. © 2016 Mellanox Technologies 34- Mellanox Confidential - 요약  인터커넥트 기술은 비즈니스 성능에 매우 중요 • 어플리케이션 생산성 및 투자수익율 (ROI) 증대  인터커넥트 시장의 꾸준한 성장 • HPC 시장에서의 성장을 바탕으로 Web 2.0, storage, database, cloud, Big Data 시장으로 확대  멜라녹스는 인터커넥트 시장을 선도하는 회사로 확고한 자리매김 • 세계 최고속 인터커넥트 기술 보유 및 제품 제공 회사 • 막강한 파트너십, 채널 협력관계 구축 • 다수의 고성장 시장에 획기적인 비즈니스 유익 제공