공유 스토리지를 이용한 H/A Cluster 뿐만 아니라
Replication을 이용한 Shared Nothing H/A Cluster 제공
내장된 Application 인지형의 고가용성 기능 제공
DB에 대하여 이중으로 Check 하는 Depth 모니터링 기능
30개의 주요한 Applications 지원
리눅스 pacemaker 기반의 High Availaiblity 구성방법에 대해 설명합니다. pacemaker를 사용하는 다른 리눅스 기반도 구성이 가능합니다.
Pacemaker 기반 Linux High Availability 입문용으로는 적합하지 않을 수 있습니다. Pacemaker 기반 Linux High Availability를 한 번도 설치 및 구성을 하지 않은 리눅스 관리자라면 설치 문서를 먼저 참고하십시오.
RHEL7 및 CentOS 7을 중심으로 레드햇 계열의 리눅스에 적합한 내용으로 작성되었습니다.
It explains virtualization technology, KVM How-To, RHEV introduction for users and engineers.
KVM (for Kernel-based Virtual Machine) is a full virtualization solution for Linux on x86 hardware containing virtualization extensions (Intel VT or AMD-V). RHEV is based on KVM and includes Red Hat Subscription program. You can understand about virtualization in this document.
Enjoy.
ARM과 AMD64의 차이에 대해 설명하고
오픈스택에 ARM을 도입하기 위한 커뮤니티 활동을 소개합니다.
1. ARM vs AMD64
2. CISC/RISC 차이
3. 커뮤니티에서 ARM위에 오픈스택을 올리기 위한 노력
- SIG (Special Interest Groups)
- PTG(Project Team Gathering)
공유 스토리지를 이용한 H/A Cluster 뿐만 아니라
Replication을 이용한 Shared Nothing H/A Cluster 제공
내장된 Application 인지형의 고가용성 기능 제공
DB에 대하여 이중으로 Check 하는 Depth 모니터링 기능
30개의 주요한 Applications 지원
리눅스 pacemaker 기반의 High Availaiblity 구성방법에 대해 설명합니다. pacemaker를 사용하는 다른 리눅스 기반도 구성이 가능합니다.
Pacemaker 기반 Linux High Availability 입문용으로는 적합하지 않을 수 있습니다. Pacemaker 기반 Linux High Availability를 한 번도 설치 및 구성을 하지 않은 리눅스 관리자라면 설치 문서를 먼저 참고하십시오.
RHEL7 및 CentOS 7을 중심으로 레드햇 계열의 리눅스에 적합한 내용으로 작성되었습니다.
It explains virtualization technology, KVM How-To, RHEV introduction for users and engineers.
KVM (for Kernel-based Virtual Machine) is a full virtualization solution for Linux on x86 hardware containing virtualization extensions (Intel VT or AMD-V). RHEV is based on KVM and includes Red Hat Subscription program. You can understand about virtualization in this document.
Enjoy.
ARM과 AMD64의 차이에 대해 설명하고
오픈스택에 ARM을 도입하기 위한 커뮤니티 활동을 소개합니다.
1. ARM vs AMD64
2. CISC/RISC 차이
3. 커뮤니티에서 ARM위에 오픈스택을 올리기 위한 노력
- SIG (Special Interest Groups)
- PTG(Project Team Gathering)
[ CB-Larva - 멀티클라우드 인프라 및 응용을 위한 네트워킹 (Networking for multicloud infrastructure and applications) ]
- 글로벌 스케일 네트워킹
- Cloud Adaptive Network 구조 및 주요 기능
- CLADNet 기술 시연: 글로벌 스케일 MCIS에 CLADNet 입혀 보기
- Cloud Adaptive Network 활용 예시
- CB-Larva의 현재, 비전, 그리고 공개SW
# 발표영상(YouTube) : https://youtu.be/6ylyEoQvNN8?t=7741
----------------------------------------------------------------------------------------------------------
# Cloud-Barista Community Homepage : https://cloud-barista.github.io
# Cloud-Barista Community GitHub : https://github.com/cloud-barista
# Cloud-Barista YouTube channel : https://cloud-barista.github.io/youtube
# Cloud-Barista SlideShare : https://cloud-barista.github.io/slideshare
[ 2018 컨테이너 기술의 모든 것 ] NBP 박기은 CTO 세션에서 소개된 네이버 클라우드 플랫폼의 컨테이너 기술 관련 서비스 및 향후 로드맵을 공유합니다.
[ 2018 All About Container ] Presentation about container technology & service roadmap of NAVER CLOUD PLATFORM by NBP cloud solution CTO "Park Ki Eun"
2015년 하반기에는 총 7건의 공유자료를 slideshare에 게시하였습니다.
오픈스택, pacemaker, Docker 등과 같은 클라우드 인프라 구축 기술 정보를 만나 보세요.
- 2015. 07 ~ 2016. 03사이의 크리티컬 이슈 해결방안
- 유용한 팁 정보 등의 내용
2. 2
- Internal Use Only -
RHCS (RedHat Cluster Suite)는 레드햇 엔터 프라이즈 리눅스에 포함되어 있는 오픈소스 기반의
고가용성 어플리케이션 시스템 입니다.
클러스터 제품소개
구분 세부내용
저비용 / 고효율
서브스크립션 기반의 제품으로 저비용으로 고효율의 고가용성 시스템을 구축가능
N개의 클러스터 노드 구성으로 인한 유용성 확보
고가용성을
위한 핵심 기능제공
오픈소스 기반의 SAN 이중화 솔루션 제공 (DM-I/O Multipath)
클러스터 관리를 위한 GUI 인터페이스 및 Locking 매카니즘 제공
다양한 I/O Fencing 범용 매커니즘 제공
고가용성 지원
어플리케이션 Fail-over 기능지원
어플리케이션 확장성 및 데이타베이스 Fail-over 기능지원 (Oracle, Mysql)
최대노드 지원 최대 128개의 클러스터 노드 지원
파일시스템 가용성
NFS/CIFS의 파일시스템에 대한 고가용성 지원
클러스터 기반의 GFS (Global File System) 지원
관리 인터페이스 클러스터를 관리하기 위한 Conga 관리 인터페이스 제공
3. 3
- Internal Use Only -
운영체제 설치방안
RHCS (RedHat Cluster Suite)를 구성하기 위한 운영체제의 설치 구성은 아래의 구성방식이
일반적입니다. Third-Party 또는 Oracle 설치에 따라서 파티션 구성은 조금씩 달라질수 있습니다.
구분 세부내용
패키지 설치
운영체제에 대한 패키지 설치는“전체설치”를 권장하고 있습니다.
클러스터를 설치하기 위한 그룹은 RHEL5 “Cluster Storage” 그룹은 반드시 설치해야 합니다
RHEL6의 경우는 “High Availibility” 그룹으로 설치해야 합니다. (Yum Repository)
/ 파티션 설정
운영체제의 기본이 되는 루트 (/) 파티션의 설정은 가능한 많은 용량을 할당해 주는 것이 좋습니다.
Third-Party 솔루션이 설치되는 경우 Thirt-Party 솔루션사의 의견을 반영하여 사이즈를 하는것도
권장할수 있습니다.
/var 파티션 설정
/var 파티션의 경우 시스템의 Log의 수집 여부에 따라서 용량을 할당하는 것이 좋습니다.
간혹Third-Party 의 경우 Log 를 수집하는 파티션을 별도로 구성하는 경우가 있습니다. 운영체제 설치시
반영하여 설치하는 것도 솔루션 운영에 필요할수 있습니다.
/boot 파티션 설정
리눅스 운영체제의 커널이미지 영역을 담고 있는 /boot 영역을 별도의 파티션 영역으로 구분하여 설치는
하는 것도 좋습니다. (ex: 커널 이미지 관리 용이)
/swap 파티션 설정
일반적인 swap 영역의 경우 Real Memory의 2배 정도의 용량을 권하고 하고 있습니다.
8 Page RedHat Swap Memory 용량 산정에 대한 근거 URL 참조
4. 4
- Internal Use Only -
운영체제 설치방안
Swap 메모리 산정근거
https://access.redhat.com/knowledge/docs/en-US/Red_Hat_Enterprise_Linux/5/html/Deployment_Guide/ch-swapspace.html
5. 5
- Internal Use Only -
2-노드 클러스터 구성방안
2-node 구성시 qdisk 사용여부.
1. Qdisk (Quorum) 의 사용 목적
- CMAN HeartBeat Network 과 Fence Network 가 분리되어 구성되어 있을 경우 2-Node 에서는
Split-Brain으로 인해 서로 Fencing (Kill) 하는 현상을 방지하기 위함 입니다.
- CMAN의 HeartBeat Network와 Fence Network가 동일한 네트워크에 구성되어 있으면 Qdisk
(Quorum disk)를 사용하지 않아도 2-Node 클러스터를 구성할수 있습니다. (참조: 슬라이드 10Page)
2. Last Man Standing 구성은 (quorum vote = node수 -1)
3. Totem Token >= 2*qdisk timeout (interval*tko)
- qdisk timeout 은 Multipath timeout의 시간보다 많아야 합니다. (qdisk timeout > multipath timeout)
- RHEL6.3 이상에서는 token 값만 늘리면 자동으로 설정됩니다.
- Heavy IO 상황에서는 qdisk interval을 3초이상으로 설정합니다.
- Heuristic 설정을 통해 실제 live node를 판단합니다. (qdisk가 없을 경우 설정할 필요가 없습니다)
- Deadline IO scheduler를 사용을 권장 합니다. (ex: tuned-adm profile enterprise-storage)
6. 6
- Internal Use Only -
2-노드 클러스터 구성방안
Qdisk 적용에 대한 의견 (RedHat)
https://access.redhat.com/knowledge/articles/40051
Using Quorum Disk and Tweaking Cluster Membership
Timers
The use of qdiskd with Red Hat Clustering is optional in most cases.
The exception is a configuration with a two-node cluster where the fence devices
are on a separate network from the cluster heartbeat network,requiring a quorum
disk to prevent split-brain situations from causing a fence race. This configuration
mandates a review by Red Hat.
The use of qdiskd for clusters with more than four nodes is not recommended as it
adds additional complexity with very little benefit. Because it is highly unlikely that
more than 50% of the nodes will fail in a cluster that has more than four nodes at the
same time, users are advised against using qdiskd in such situations. If you have an
absolute need to use qdiskd for clusters with more than four nodes, your cluster
architecture must be reviewed so that Red Hat can confirm and approve the use of a
quorum disk
7. 7
- Internal Use Only -
2-노드 클러스터 구성방안
Router
Switch1 Switch II
Node 1 Node 2
Eth0 Eth1 Eth0 Eth1
Eth2 Eth3 Eth2 Eth3
bond0
bond1
bond0
bond1
Switch1 Switch II
II.스위치 이중화
Fence Fence
I.스위치 이중화
구분 세부내용
쿼럼 디스크
Qdisk를 제거하여 클러스터 구성합니다
Qdisk를 제거함으로써 운영상의 Failure Point 제거 합니다
전체적인 네트워크의 안정화가 중요합니다
네트워크 구성
HeartBeat Network 및 Fence Network 동일한 네트워크
에서 통신할수 있도록 구성되어야 합니다.
각각의 노드들은 이더넷 본딩(Bonding)을 구성합니다
네트워크는 반드시 Multicast 기능을 지원해야 합니다.
운영체제 설치
운영체제는 RHEL5에서 가장최신 버전인 5.9버젼
RHEL6 의 경우는 6.4 버전입니다..
설치전Third-Part 솔루션과 호환문제 있는지 확인이
필요합니다.
패키지 구성
패키지 설치는“전체설치”로 설치진행
오라클에 설치에 필요한 라이브러리 설치 “Development
Tool” 그룹 설치
커널
파라메터
오라클 설치에 필요한 커널 파타메터는 오라클 엔지니어의
협조를 통해 지원 [협조사항]
2-Node 클러스터 구성 제안