It explains virtualization technology, KVM How-To, RHEV introduction for users and engineers.
KVM (for Kernel-based Virtual Machine) is a full virtualization solution for Linux on x86 hardware containing virtualization extensions (Intel VT or AMD-V). RHEV is based on KVM and includes Red Hat Subscription program. You can understand about virtualization in this document.
Enjoy.
Virtualization with KVM (Kernel-based Virtual Machine)Novell
As a technical preview, SUSE Linux Enterprise Server 11 contains KVM, which is the next-generation virtualization software delivered with the Linux kernel. In this technical session we will demonstrate how to set up SUSE Linux Enterprise Server 11 for KVM, install some virtual machines and deal with different storage and networking setups.
To demonstrate live migration we will also show a distributed replicated block device (DRBD) setup and a setup based on iSCSI and OCFS2, which are included in SUSE Linux Enterprise Server 11 and SUSE Linux Enterprise 11 High Availability Extension.
We've added the presentation used by John Walter, Solution Architect for Red Hat's Training and Certification team, from our Accelerating with Ansible webinar. He discussed the emergence of radically simple Ansible automation and answered questions from attendees. Learn how Ansible automates cloud provisioning, configuration management, application deployment, intra-service orchestration, and many other IT needs. Also learn how Ansible is designed for multi-tier deployments from day one and how Ansible models your IT infrastructure by describing how all your systems inter-relate, rather than just managing one system at a time.
Virtualization with KVM (Kernel-based Virtual Machine)Novell
As a technical preview, SUSE Linux Enterprise Server 11 contains KVM, which is the next-generation virtualization software delivered with the Linux kernel. In this technical session we will demonstrate how to set up SUSE Linux Enterprise Server 11 for KVM, install some virtual machines and deal with different storage and networking setups.
To demonstrate live migration we will also show a distributed replicated block device (DRBD) setup and a setup based on iSCSI and OCFS2, which are included in SUSE Linux Enterprise Server 11 and SUSE Linux Enterprise 11 High Availability Extension.
We've added the presentation used by John Walter, Solution Architect for Red Hat's Training and Certification team, from our Accelerating with Ansible webinar. He discussed the emergence of radically simple Ansible automation and answered questions from attendees. Learn how Ansible automates cloud provisioning, configuration management, application deployment, intra-service orchestration, and many other IT needs. Also learn how Ansible is designed for multi-tier deployments from day one and how Ansible models your IT infrastructure by describing how all your systems inter-relate, rather than just managing one system at a time.
The AlwaysOn Availability Groups feature is a high-availability and disaster-recovery solution that provides an enterprise-level alternative to database mirroring. Introduced in SQL Server 2012, AlwaysOn Availability Groups maximizes the availability of a set of user databases for an enterprise
VNF Integration and Support in CloudStack - Wei Zhou - ShapeBlueShapeBlue
In this session, Wei presents how CloudStack 4.19 adds the capability to easily and quickly perform a light-touch integration of networking appliances with ACS, allowing for operators to offer a broader range of networking services while empowering end-users to effortlessly deploy their own virtualized network functions.
-----------------------------------------
The CloudStack Collaboration Conference 2023 took place on 23-24th November. The conference, arranged by a group of volunteers from the Apache CloudStack Community, took place in the voco hotel, in Porte de Clichy, Paris. It hosted over 350 attendees, with 47 speakers holding technical talks, user stories, new features and integrations presentations and more.
Static partitioning is becoming increasingly common in embedded. A static hypervisor, such as Xen dom0less, is employed to split the hardware resources into multiple domains and run a different OS in each domain. For instance, Linux and Zephyr. Only the simplest static partitioning configurations don't involve any data exchanges between the domains. Often, communication and data exchanges between two or more environments are required to complete the data processing pipeline that implements the target application. However, the VM-to-VM communication mechanisms available in static partitioning configurations are typically more limited compared to general-purpose hypervisors. For example, PV drivers are not available to Xen dom0less domains. This presentation will discuss the need for communication in static partitioning setups and it will present the technical challenges involved in getting traditional communication methods to work, including Xen PV drivers and VirtIO. The talk will also provide simpler alternatives based on shared memory and interrupt notifications to set up domain-to-domain data streams: simpler techniques that are easily exploitable both by Linux and by tiny baremetal applications as well.
Dev and test environments require the frequent and repeatable deployment of the CloudStack setup. This can be time-consuming and prone to errors. In this presentation, Kaloyan shows how StorPool uses Ansible for automatic deployment and setting up complete CloudStack clouds.
Kaloyan Kotlarski is a system administrator in StorPools' support team. He's been in the company for two years. He's responsible for building CI/CD automation and helping clients integrate StorPool Storage in their cloud deployments.
-----------------------------------------
CloudStack Collaboration Conference 2022 took place on 14th-16th November in Sofia, Bulgaria and virtually. The day saw a hybrid get-together of the global CloudStack community hosting 370 attendees. The event hosted 43 sessions from leading CloudStack experts, users and skilful engineers from the open-source world, which included: technical talks, user stories, new features and integrations presentations and more.
The AlwaysOn Availability Groups feature is a high-availability and disaster-recovery solution that provides an enterprise-level alternative to database mirroring. Introduced in SQL Server 2012, AlwaysOn Availability Groups maximizes the availability of a set of user databases for an enterprise
VNF Integration and Support in CloudStack - Wei Zhou - ShapeBlueShapeBlue
In this session, Wei presents how CloudStack 4.19 adds the capability to easily and quickly perform a light-touch integration of networking appliances with ACS, allowing for operators to offer a broader range of networking services while empowering end-users to effortlessly deploy their own virtualized network functions.
-----------------------------------------
The CloudStack Collaboration Conference 2023 took place on 23-24th November. The conference, arranged by a group of volunteers from the Apache CloudStack Community, took place in the voco hotel, in Porte de Clichy, Paris. It hosted over 350 attendees, with 47 speakers holding technical talks, user stories, new features and integrations presentations and more.
Static partitioning is becoming increasingly common in embedded. A static hypervisor, such as Xen dom0less, is employed to split the hardware resources into multiple domains and run a different OS in each domain. For instance, Linux and Zephyr. Only the simplest static partitioning configurations don't involve any data exchanges between the domains. Often, communication and data exchanges between two or more environments are required to complete the data processing pipeline that implements the target application. However, the VM-to-VM communication mechanisms available in static partitioning configurations are typically more limited compared to general-purpose hypervisors. For example, PV drivers are not available to Xen dom0less domains. This presentation will discuss the need for communication in static partitioning setups and it will present the technical challenges involved in getting traditional communication methods to work, including Xen PV drivers and VirtIO. The talk will also provide simpler alternatives based on shared memory and interrupt notifications to set up domain-to-domain data streams: simpler techniques that are easily exploitable both by Linux and by tiny baremetal applications as well.
Dev and test environments require the frequent and repeatable deployment of the CloudStack setup. This can be time-consuming and prone to errors. In this presentation, Kaloyan shows how StorPool uses Ansible for automatic deployment and setting up complete CloudStack clouds.
Kaloyan Kotlarski is a system administrator in StorPools' support team. He's been in the company for two years. He's responsible for building CI/CD automation and helping clients integrate StorPool Storage in their cloud deployments.
-----------------------------------------
CloudStack Collaboration Conference 2022 took place on 14th-16th November in Sofia, Bulgaria and virtually. The day saw a hybrid get-together of the global CloudStack community hosting 370 attendees. The event hosted 43 sessions from leading CloudStack experts, users and skilful engineers from the open-source world, which included: technical talks, user stories, new features and integrations presentations and more.
NFV VNF Architecture 특징을 설명
[목차]
Overview of VNF in the NFV Architecture
VNF Design Patterns and Properties
VNF States and Transitions
VNF Fault Management Overview
Functional Requirements on Management and Orchestration
Functional Requirements on Infrastructure
VNF Architecture Design Examples
#Annex A (Informative): Relationship to SDN
클라우드 컴퓨팅 기반 기술과 오픈스택(Kvm) 기반 Provisioning Ji-Woong Choi
TTA에 KVM 기반 프로비저닝 기술에 대한 데모 세션을 포함하는 세미나 관련 자료입니다. 클라우드환경으로 가고자 해서 Paas를 어떤 플랫폼위에 올린다면 그리고 가상화 환경이나 클라우드 환경으로 올린다면 어떤 환경으로 올릴것인가를 고민하여야 합니다.
그리고 이 hypervisor중에 cloud 환경에서 가장 주목받는 kvm을 기반으로 하는 두가지 가상화 클라우드 솔루션인 rhev와 openstack을 잠시 살펴볼 것입니다.
그리고 이러한 가상화 클라우드 환경에서 자동화 하는 솔류션을 어떻게 고려해야 하는가를 살펴보고, 그런 솔류션중에 하나인 아테나 피콕에 대해 살펴보겠습니다.
그리고 오픈스택환경하에서 구축해서 사용했던 사용기와 이를 자동화하기위해 개발자들이 사용했던 간단한 ansible provisioning 모습을 시연합니다.
[오픈테크넷서밋2022] 국내 PaaS(Kubernetes) Best Practice 및 DevOps 환경 구축 사례.pdfOpen Source Consulting
최근 금융권이나 공공기관에서는 차세대 프로젝트에 PaaS 기반 시스템을 구축하고 그 위에 마이크로서비스아키텍처(MSA)를 구현하기 위해 많은 투자를 하고 있는데요, 많은 기업들이 오픈소스 기반의 인프라를 고려할 때 기술지원이나 버전 업그레이드 등에 대한 애로사항을 겪게 됩니다. 이런 문제에 대한 해결 방안 중 하나가 바로 커뮤니티 기반의 오픈소스 재단을 활용하는 것인데요!
본 자료에서 커뮤니티 오픈소스 기반 인프라 구축의 장점과 실제 사례에 대해 확인해 보실 수 있습니다.
IBM의 퍼블릭 IaaS 클라우드 서비스, SoftLayer 사용 팁 & 가이드
SoftLayer에 대해 더 알고 싶으세요? 아래 웹사이트를 방문해 주세요!
한글 - http://ibm.co/1w43NvN
영문 - http://www.softlayer.com/
한국 IBM SoftLayer의 페이스북 페이지를 통해서 SoftLayer의 뉴스들을 전달받으세요!
https://www.facebook.com/IBMSoftlayerkorea
SoftLayer에 대해 더 배우고 싶으세요? 아래 튜토리얼 링크를 방문해 주세요!
http://www.youtube.com/channel/UCdpXbWYiWtS6iGp1lGx1RAA
Machine Learning Model Serving with Backend.AIJeongkyu Shin
머신러닝 모델을 서비스 단에서 서빙하는 것은 손이 많이 갑니다.
서비스 과정을 편리하게 하기 위하여 TensorFlow serving 등 서빙 과정을 돕는 다양한 도구들이 공개되고 개발되고 있습니다만, 여전히 서빙 과정은 귀찮고 불편합니다. 이 세션에서는 Backend.AI 와 TensorFlow serving을 이용하여 간단하게 TensorFlow 모델을 서빙하는 법에 대해 다루어 봅니다.
Backend.AI 서빙 모드를 소개하고, 여러 TF serving 모델 등을 Backend.AI 로 서비스하는 과정을 통해 실제로 사용하는 법을 알아봅니다.
Serving the machine learning model at the service level is a lot of work. A variety of tools are being developed and released to facilitate the process of serving. TensorFlow serving is the greatest one for serving now, but the docker image baking-based serving process is not easy, not flexible and controllable enough. In this session, I will discuss how to simplify the serving process of TensorFlow models by using Backend.AI and TensorFlow serving.
I will introduce the Backend.AI serving mode (on the trunk but will be official since 1.6). After that, I will demonstrate how to use the Backend.AI serving mode that conveniently provides various TensorFlow models with TensorFlow serving on the fly.
기존에 저희 회사에서 사용하던 모니터링은 Zabbix 였습니다.
컨테이너 모니터링 부분으로 옮겨가면서 변화가 필요하였고, 이에 대해서 프로메테우스를 활용한 모니터링 방법을 자연스럽게 고민하게 되었습니다.
이에 이영주님께서 테크세션을 진행하였고, 이에 발표자료를 올립니다.
5개의 부분으로 구성되어 있으며, 세팅 방법에 대한 내용까지 포함합니다.
01. Prometheus?
02. Usage
03. Alertmanager
04. Cluster
05. Performance
2018년도 Amazon AWS re:Invent Machine Learning 부분에 대한 요약을 오픈소스컨설팅 서경빈(AWS SA)님이 해주셨습니다.
사내 발표 때 아주 쉽게 설명해주셔서 좋았는데, 해당 내용은 Tech Blog에서도 확인이 가능합니다.
https://tech.osci.kr/2018/12/06/50693623/
[오픈소스컨설팅] Docker를 활용한 Gitlab CI/CD 구성 테스트Ji-Woong Choi
Docker를 활용하여 Gitlab CI/CD 설치 구성 및 샘플 테스트를 위한 가이드 문서이며, Docker 및 Gitlab에 대한 개요 및 사용법에 대해서는 다루지 않습니다. Docker image를 이용 Gitlab 및 Gitlab CI/CD 설치 및 구성 후 Sample Spring boot web application을 이용하여 소스 변경에 따른 commit이 발생 했을 때 Gitlab CI/CD 기능을 통해 application 테스트, 빌드, 배포까지의 일련의 과정이 자동으로 진행되는지를 테스트 하는 내용입니다.
[오픈소스컨설팅]클라우드기반U2L마이그레이션 전략 및 고려사항Ji-Woong Choi
Cloud 기반으로 U2C(Unix to Cloud),U2L(Unix to Linux) 마이그레이션에 대한 가이드 라인과 사이징 관련 고려 사항에 대해 설명한 자료입니다.
많은 전환 프로젝트에서 추출된 경험치가 들어가 있으며, 전환별 난이도 및 고려사항이 들어가 있습니다.
장소 : 미국 보스턴 Hynes Convention Center
일시 : 2017년 5월 6일 ~ 11일 (미국 동부 시각)
참가 인원 : 5000명 이상
참가 업체 : 1014개
참가국 : 63개국
세션 수 : 750여 개(이전 Summit 대비 약 250여 개 증가)
[오픈소스컨설팅] Red Hat ReaR (relax and-recover) Quick GuideJi-Woong Choi
본 문서는 RHEL에 내장된 재해복구솔루션 ReaR (Relax and Recover)를 이용하여 OS 영역의 데이터를 백업하고 복구하는 방법을 다루고 있습니다. ReaR는 iso를 비롯한 다양한 백업 데이터 포맷을 지원하나, 이 문서에서는 CD/DVD 미디어 반입/보관이 보안상 대부분 허용되지 않는 기업 환경에서도 원활히 사용할 수 있는 PXE boot를 지원하는 포맷으로 ReaR 백업 데이터를 생성하고 복구하는 방법만을 자세히 설명합니다.
[오픈소스컨설팅] Open Stack Ceph, Neutron, HA, Multi-RegionJi-Woong Choi
OpenStack Ceph & Neutron에 대한 설명을 담고 있습니다.
1. OpenStack
2. How to create instance
3. Ceph
- Ceph
- OpenStack with Ceph
4. Neutron
- Neutron
- How neutron works
5. OpenStack HA- controller- l3 agent
6. OpenStack multi-region
아틀라시안 JIRA를 사용할 때 가장 핵심적으로 해야 할 내용들만 추려서 가이드 문서를 작성하였습니다.
그러한 작업들로는 프로젝트, 스킴(Scheme), 이메일 세팅, 권한 관리, 백업/복구 등이 있습니다.
관리자가 이런 일을 잘 할 수 있도록 핵심적인 내용만으로 구성한 문서를 공유합니다.
레드햇 엔터프라이즈 리눅스 7 기반에 대한 운영자 가이드 기초편을 공유합니다.
부트로더 관리, 패키지, 네트워크, 스토리지 및 크래쉬 덤프 발생에 대한 관리까지 기초 운영 지식에 대한 부분을 본 문서를 통해 얻으실 수 있습니다.
오픈소스컨설팅의 문경윤차장께서 공유해주신 내용입니다.
4. 4
- Internal Use Only -
가상화 개요
컴퓨터 리소스의 물리적인 특징을 추상화하여 사용자에게 논리적 리소스를
제공하며, 이를 통하여 다양한 기술적/관리적 이점들을 제공하는 기술
가상화는 1960년 메인프레임 시절부터 활용
현재 주목 받는 이유
- 친환경
- 저전력
가상화의 범위
- 서버 가상화
- 데스크탑 가상화, etc
5. 5
- Internal Use Only -
X86 아키텍처의 가상화
X86 아키텍처 환경 에서는 가상화 구현이 어려움
CPU는 0부터 3까지 4단계 특권 레벨 또는 rings를 가짐
OS kernel 코드를 실행 할 때는 ring 0에서 실행
애플리케이션과 사용자 공간은 ring 3에서 실행
Physical H/W
Operating System
Application Application Application Application
Ring 0
Ring 3
Ring 1 & 2
6. 6
- Internal Use Only -
X86 아키텍처의 가상화
Hypervisor는 ring 0에서 실행되어야 함
Virtual machines은 ring 3에서 실행
VM의 OS 커널은 특권 모드 0에서 명령을 실행 하려고 함
- 여기서 machine fault를 유발 함
VMware에서 “Binary translation”으로 이 문제를 처음 해결
- VM의 Guest OS에서 CPU에 직접 전달 해야 하는 과정을 에뮬레이션화
7. 7
- Internal Use Only -
가상화 방식 분류
Full virtualization – Software based
- 에뮬레이터된 하드웨어로 가상머신 생성
- OS에는 일반적인 하드웨어 제공
- Virtual BIOS, Network card, Storage Controller, etc
장점
- "Guest OS”가 가상화인지 인지하지 않음 - OS 미수정
단점
- 성능 - 하드웨어 요소를 에뮬레이터하는 소프트웨어 사용
Examples: VMware ESX, ESXi
8. 8
- Internal Use Only -
가상화 방식 분류
Para-virtualization
- 가상화를 인지 할 수 있도록 Guest OS 수정
- Guest OS kernel 에 ring 0 모드로 접근 하지 못하게 설정
- Guest OS는 하이퍼바이저와 연동
- OS(Dom-0)는 에뮬레이션 계층 대신 하이퍼바이저와 직접 통신
장점
- 고성능 - 단일 서버 성능에 가까움
- 향상된 I/O 리소스 리소스 스케줄링을 제공하기 위해 하이퍼바이저와 상호 연동 됨
단점
- Guest OS의 kernel이 수정 가능 해야 함
- VM을 위한 또 다른 커널이 필요
9. 9
- Internal Use Only -
Hardware CPU x86 아키텍처 기술 진화
CPU 벤더가 x86 아키텍처를 확장
- CPU 기능으로 가상화 지원 제공
- 2006년부터 모든 주요 플랫폼에 탑재
Intel – VT : Xeon, Core Duo and Core 2 Duo
AMD – AMD-V : Opteron, Athlon and Phenom
1세대
- Ring compression에 대한 CPU 부담을 제거
- 가상화를 위한 Ring -1이라는 새로운 모드 제공
2세대
- Memory Management
- MMU Virtualization
3세대
- Intel : VT-D
- AMD : 하이퍼트랜스포트
PCI 장치 및 드라이버를 VM에 pass thru
10. 10
- Internal Use Only -
Xen
Domain 0
- 하드웨어 지원 제공
vNIC, vStorage Controller
- Guests OS 제어 기능
- Management tool
CPU, Memory 리소스 by pass
- 네이티브하게 Guest OS들이 H/W 리소스들을 사용하여 고성능
- NIC, Storage Controller etc는 Domain 0에서 제공 (virtIO)
11. 11
- Internal Use Only -
Kernel Based Virtual Machine (KVM)
3세대 하이퍼바이저 가상화
- Full Virtualization 방식
일반적인 리눅스 커널을 사용
- 안정적이고 신뢰성 있는 기업용 커널을 사용
- Guest OS 커널 소스 수정 미수정
현재 X86 H/W 기반으로 설계
- Binary translation 불필요
- Paravirtualization kernels 불필요
12. 12
- Internal Use Only -
KVM 역사
2006년 10월에 쿰라넷(Qumranet)에서 프로젝트 시작
2006년 12월에 kernel maintainer들에게 제출
- 리눅스 커널에 약40k 라인 추가
kernel 2.6.20 포함(January 2007)
- 가상화를 위해 분리된 커널을 요구하지 않음
대부분의 최신 리눅스 배포판에 탑재
- Fedora 7
- Ubuntu, Debian, Mandriva, openSUSE, SLES(since 11)
- added to RHEL 5.4
13. 13
- Internal Use Only -
KVM 아키텍처
KVM 아키텍처
- vCPU, NIC Drivers, Storage Controller 장치들은 KVM 모듈에서 제어
14. 14
- Internal Use Only -
KVM 의 하이퍼바이저 타입은?
Hypervisor는 종종 type 1 또는 type 2로 분류
- Type 1 - Bare metal 하이퍼바이저
하드웨어 위에 바로 부팅
- Type 2 - Hosted 하이퍼바이저
OS 위에서 동작
15. 15
- Internal Use Only -
Linux KVM model 이점
Leverages Linux – 새로운 커널을 만들지 않음
- 신뢰성 있고 안정된 기업용 플랫폼 위에 구축됨
- Scheduler, memory management, hardware support etc.
향상된 기능
- 리눅스의 하드웨어 확장 성, power management, hot-plug등의 기능을 상속 –
다른 기술들은 새롭게 개발
- SELinux security, advanced scheduler, RAS support etc.
16. 16
- Internal Use Only -
KVM
KVM H/W 확인방법
- Intel : vmx flag
- AMD : svm flag
- # egrep “svm|vmx” /proc/cpuinfo
BIOS에서 CPU Virtualization Technology Support를 on 했다면 cold boot를
해야 적용이 됨
- Cold boot을 하지 않으면 VT는 활성화 되지 않음
17. 17
- Internal Use Only -
KVM
KVM은 RHEL 5.x, CentOS 5.x에 포함 되어 있음
- RHEL 5.4, CentOS 5.4 부터 KVM 탑재
- KVM은 X86_64 에서만 탑재 및 지원
왜 KVM 및 RHEV은 최신 커널을 사용하지 않는가?
- 현재 kernel 최신 버전은 3.12.X 버전까지 릴리즈
- Hardware / Software certification
- RHEL 5, RHEL6는 이미 신뢰성있고 안정된 플랫폼
18. 18
- Internal Use Only -
VirtIO
대부분의 H/W 장치들은 유저스페이스에서 에뮬레이터 됨
- 게스트의 낮은 성능 유발 및 호스트의 CPU 사용률을 높임
가속화된 I/O의 성능을 구현하기 위한 전통적인 방법은 PV I/O를 사용 해야 함
- 대부분의 하이퍼바이저 벤더들은 PV 드라이버 제공
- 자체 인터페이스 위에 각각 다른 다양한 드라이버들이 존재
VirtIO는 PV 드라이버를 위한 공개 표준 프레임워크
- virtio를 버스에 연결하기 위한 binding layer (pci driver)
- Domain별 guest drivers 제공 (network, storage etc)
19. 19
- Internal Use Only -
QEMU (Quick Emulator)
오픈소스기반 “machine emulator and virtualized”
- http://www.nongnu.org/qemu/
다른 많은 가상화 프로젝트에서 사용되는 코어 콤포넌트
- KVM, Xen, Virtual Box, etc
CPU emulator 제공
- x86, x86_64, PowerPC, Sparc, PA-RISC and others
machine / device emulator에 주로 사용 됨
- virtual BIOS, hardware, device-disk, network etc
21. 21
- Internal Use Only -
Management - virt-manager
RHEL 5.4 / CentOS 5.4 이상부터 기능 지원
virt-manager
- KVM 및 Xen 지원
- QEMU/KVM 및 Xen에 연결
- GUI 환경에서 동작
확장 기능
- Storage Pools, etc
22. 22
- Internal Use Only -
Virtualization Performance Tuning
tuned
- 시스템 서비스에 맞게 여러 가지, profile을 제공
- 기본적인 프로파일을 적용하고, WEB/WAS/DB 서비스에 맞는 튜닝은 별도로 설정
사용자는 시스템에 역할이 Host인지 Guest OS인지 판단하여 프로파일을 적용
- tuned-adm profile virtual-host
- tuned-adm profile virtual-guest
- /etc/tune-profiles 디렉토리에 각 프로파일별 스크립트들이 있음
24. 24
- Internal Use Only -
KVM: 가상화 플랫폼 & Red Hat Products
최고의 성능 보안 낮은 비용 크로스 플랫폼 클라우드 &
가상화 관리
KVM은 SPECvirt
의 가상머신 통합
테스트 Top 6/11
를 기록 (1)
EAL4+인증 (2) SE
Linux를 이용한 M
andatory Access
Control 제공
고객은 KVM을 이
용하여 70% 비용
절감효과를 보고 (
3)
대표적인 x86 운영
체제인 RHEL과 M
icrosoft Windows
를 완벽지원 (4)
클라우드 가상화를
위한 Red Hat Ope
n Stack과 데이터
센터 가상화를 위
한 Red Hat Enter
prise Virtualizatio
n 제품 포트폴리오
25. 25
- Internal Use Only -
Red Hat 가상화
Red Hat 가상화를 활용하여 하나의 서버에서 멀티 VM을 구성하는 방식과 멀티
서버에서 멀티 VM을 구동하는 두 가지 방식 구현 가능
1) 멀티 서버에서 멀티 VM 구동 (RHEV)
- 커널 기반 가상화 기술인 KVM 기술 활용
- 다중 하이퍼바이저에 대한 통합관리 기능
- 다수의 VM 관리
- Live Migration, HA 등 장애관리 기능
2) 하나의 서버에서 멀티 VM 구동 (Virt-Man
ager)
- 커널 기반 가상화 기술인 KVM 기술 활용
- 하나의 서버 내에서 다중 VM 구동
- RHEL에 기본 포함된 기능
- RHEV로 확장 가능
26. 26
- Internal Use Only -
Red Hat Enterprise Virtualization 아키텍처
RHEV는 엔터프라이즈용 오픈소스 가상화 플랫폼
- Project: oVirt / KVM
27. 27
- Internal Use Only -
RHEV 3.2: Manager & Hypervisor
Red Hat Enterprise Virtualization 3.2
- 단일 제품에서 서버/데스크탑 가상화를 모두 지원
- KVM 기반의 Hypervisor
- 100% Open Source 기반의 가상화 솔루션
- 최고의 확장 성 제공 (500 + 호스트 & 10,000 + VMs)
•RHEV HYPERVISOR •RHEV MANAGER
Host: 4096 논리 CPUs , 3TB RAM
Guest: 160 vCPUs, 2TB RAM
Memory Overcommit, SR-IOV 기능 지원
Microsoft SVVP 인증을 통한 Windows 운영체제 기술지원
•RHEL 6.4 기반의 하이퍼바이저 – 성능 및 확장성 향상
•커널/스케쥴러Kernel/Scheduler
•메모리 관리(EPT 향상), Transparent huge pages
•블록 입출력 (비동기 I/O)
•네트워크 (vhost-net : 커널 영역)
•최신의 CPU 아키텍쳐지원(하즈웰/AMD 5세대)
•SPICE 프로토콜의 WAN 환경 성능 향상
•고가용성, 라이브 마이그래이션, 셀프서비스 포털(유저 포털)
•로드발랜싱 (DRS), 파워 세이버 (DPM)
•템플릿, 씬 프로비져닝, 라이브 스냅샷
•스토리지와 네트워크의 중앙관리
•마켓플레이스 생태계
•스토리지 라이브 마이그레이션 (A.K.A vMotion of Vmware)
•Quotas : CPU, Memory, Storage
•핫 플러그/언플러그 지원 : NICs, Disks
•스토리지 : local disk, FC, iscsi, NFS, Red Hat Storage, Direct LUN, P
OSIX
•리포팅 대쉬보드 제공, RESTfull API & SDK, CLI 관리 툴
28. 28
- Internal Use Only -
RHEV 3.2 주요 기능
구분 내용
강력한 관리 도구 제공
(RHEV-M)
• 가상화 서버를 중압 집중 관리 할 수 있는 웹 기반의 관리 도구 제공
Posix FS Storage지원 • GPFS,VxFS,RedHatStorage등 Posix기반의파일시스템스토리지지원
Power Saver • 물리적 서버의 전력관리 기능과 연동하여 최적의 전력관리가 시행되어 최적화 될 수 있는 기능 제공
SystemScheduler
(DRS)
• 호스트의부하를감지하고부하가많은호스트의VM을 다른가상화호스트에분산
자원에 대한 Quota 설정 • CPU,Memory,Disk에대한Quota설정기능제공
모니터링 기능 • JasperReportingTool을이용한 대시보드기능제공
29. 29
- Internal Use Only -
RHEV 3.2 주요 기능
구분 내용
라이브
마이그레이션
• 서비스 중단 없이 호스트 간에 가상 머신 을 다이내믹하게 이동할 수 있는 기능
고 가용성 • 호스트 장애 시 다른 호스트상에서 가상 머신 을 자동으로 재 시작
시스템 스케줄러
• 리소스 및 정책을 기반으로 다이내믹하게 가상 머신의 라이브 마이그레이션을 수행하여 데이터센터
내 워크로드 균형을 조정
자원에 대한 Hot add • Disk, NIC에 대한 Hot Add 기능
Export & Import • VM 및 Template에 대한 가져오기/내보내기 기능
계정관리 기능 • Red Hat IPA, LDAP, IBM Tivoli, MS Active Directory 등 원하는 계정관리 시스템과의 연동 및 구현 기능
30. 30
- Internal Use Only -
사용자 인터페이스 & Reporting Dash Board
User Potal
Basic View Extended View
RHEV Reporting Portal
- Historical usage, trending, quality of service 데이터 로깅
31. 31
- Internal Use Only -
RHEV 유용한 기능
Memory Overcommit
None : Memory Overcommit을 사용하지 않음.
Optimized for Server Load : 150% memory over-commit 설정
Optimized for Desktop load : 200% memory over-commit 설정
Workload & Power Savings 정책
Even Distribution : 특정 호스트의 워크로드가 정책 설정 보다 높을 경우, VM을
클러스터 내의 호스트로 Live-Migration을 하여 부하 분산 기능을 제공
Power Saving : 워크로드가 정책 보다 낮을 때 VM을 통합, 전원 절약 기능을 제
공
자원 모니터링
Storage, Hosts, VM, Event
에 대한 직관적인 실시간 모
니터링 제공