다양한 하둡에코 소프트웨어 성능을 검증하려는 목적으로 성능 테스트 환경을 구성해보았습니다. ELK, JMeter를 활용해 구성했고 Kafka에 적용해 보았습니다.
프로젝트에서 요구되는 성능요건을 고려해 다양한 옵션을 조정해 시뮬레이션 해볼수 있습니다.
처음 적용한 뒤 2년 정도가 지났지만, kafka 만이 아니다 다른 Hadoop eco 및 Custom Solution에도 유용하게 활용 가능하겠습니다.
클라우드 네이티브로의 전환이 확산되면서 애플리케이션을 상호 독립적인 최소 구성 요소로 쪼개는 마이크로서비스(microservices) 아키텍쳐가 각광받고 있는데요.
MSA는 애플리케이션의 확장이 쉽고 새로운 기능의 출시 기간을 단축시킬 수 있다는 장점이 있지만,
반면에 애플리케이션이 커지고 동일한 서비스의 여러 인스턴스가 동시에 실행되면 MSA간 통신이 복잡해 진다는 단점이 있습니다.
서비스 메쉬(Service Mesh)는 이러한 MSA의 트래픽 문제를 보완하기 위해 탄생한 기술로,
서비스 간의 네트워크 트래픽 관리에 초점을 맞춘 네트워킹 모델입니다.
서로 다른 애플리케이션이 얼마나 원활하게 상호작용하는지를 기록함으로써 커뮤니케이션을 최적화하고 애플리케이션 확장에 따른 다운 타임을 방지할 수 있습니다.
서비스 메쉬의 탄생 배경과 기능, 그리고 현재 오픈소스로 배포되어 있는 서비스 메쉬 솔루션에 대해 소개합니다.
Step1. Cloud Native Trail Map
Step2. Service Proxy, Discover, & Mesh
Step3. Service Mesh 솔루션
Step4. Service Mesh 구현화면 - Istio / linkerd
Step5. Multi-cluster (linkerd)
Apache kafka performance(throughput) - without data loss and guaranteeing dat...SANG WON PARK
Apache Kafak의 성능이 특정환경(데이터 유실일 발생하지 않고, 데이터 전송순서를 반드시 보장)에서 어느정도 제공하는지 확인하기 위한 테스트 결과 공유
데이터 전송순서를 보장하기 위해서는 Apache Kafka cluster로 partition을 분산할 수 없게되므로, 성능향상을 위한 장점을 사용하지 못하게 된다.
이번 테스트에서는 Apache Kafka의 단위 성능, 즉 partition 1개에 대한 성능만을 측정하게 된다.
향후, partition을 증가할 경우 본 테스트의 1개 partition 단위 성능을 기준으로 예측이 가능할 것 같다.
다양한 하둡에코 소프트웨어 성능을 검증하려는 목적으로 성능 테스트 환경을 구성해보았습니다. ELK, JMeter를 활용해 구성했고 Kafka에 적용해 보았습니다.
프로젝트에서 요구되는 성능요건을 고려해 다양한 옵션을 조정해 시뮬레이션 해볼수 있습니다.
처음 적용한 뒤 2년 정도가 지났지만, kafka 만이 아니다 다른 Hadoop eco 및 Custom Solution에도 유용하게 활용 가능하겠습니다.
클라우드 네이티브로의 전환이 확산되면서 애플리케이션을 상호 독립적인 최소 구성 요소로 쪼개는 마이크로서비스(microservices) 아키텍쳐가 각광받고 있는데요.
MSA는 애플리케이션의 확장이 쉽고 새로운 기능의 출시 기간을 단축시킬 수 있다는 장점이 있지만,
반면에 애플리케이션이 커지고 동일한 서비스의 여러 인스턴스가 동시에 실행되면 MSA간 통신이 복잡해 진다는 단점이 있습니다.
서비스 메쉬(Service Mesh)는 이러한 MSA의 트래픽 문제를 보완하기 위해 탄생한 기술로,
서비스 간의 네트워크 트래픽 관리에 초점을 맞춘 네트워킹 모델입니다.
서로 다른 애플리케이션이 얼마나 원활하게 상호작용하는지를 기록함으로써 커뮤니케이션을 최적화하고 애플리케이션 확장에 따른 다운 타임을 방지할 수 있습니다.
서비스 메쉬의 탄생 배경과 기능, 그리고 현재 오픈소스로 배포되어 있는 서비스 메쉬 솔루션에 대해 소개합니다.
Step1. Cloud Native Trail Map
Step2. Service Proxy, Discover, & Mesh
Step3. Service Mesh 솔루션
Step4. Service Mesh 구현화면 - Istio / linkerd
Step5. Multi-cluster (linkerd)
Apache kafka performance(throughput) - without data loss and guaranteeing dat...SANG WON PARK
Apache Kafak의 성능이 특정환경(데이터 유실일 발생하지 않고, 데이터 전송순서를 반드시 보장)에서 어느정도 제공하는지 확인하기 위한 테스트 결과 공유
데이터 전송순서를 보장하기 위해서는 Apache Kafka cluster로 partition을 분산할 수 없게되므로, 성능향상을 위한 장점을 사용하지 못하게 된다.
이번 테스트에서는 Apache Kafka의 단위 성능, 즉 partition 1개에 대한 성능만을 측정하게 된다.
향후, partition을 증가할 경우 본 테스트의 1개 partition 단위 성능을 기준으로 예측이 가능할 것 같다.
AWS의 CDN 서비스인 CloudFront의 가속 및 DDoS 방어 소개
# CloudFront 장점
- 수퍼 PoP: AWS 클라우드 구축/운영 Know-How 가 담긴 고성능/대용량 아키텍쳐
* 국내 최대 Capacity / 가장 빠르게 성장하는 글로벌 CDN 서비스
- Single-Service: (캐싱, 다이나믹 가속, HTTPS, AWS Shield Standard 등) 동일 가격 체계로 제공
- AWS Backbone 전용망: Edge <=> Origin 가속
- 인라인 DDoS 방어: Shield Standard & Advance
- AWS 서비스 연동성
컨테이너 및 서버리스를 위한 효율적인 CI/CD 아키텍처 구성하기 - 현창훈 데브옵스 엔지니어, Flex / 송주영 데브옵스 엔지니어, W...Amazon Web Services Korea
최근에 컨테이너 및 서버리스 환경의 지속적 통합 및 배포 (CI/CD)에 대한 관심이 늘어나고 있습니다. 본 세션에서는 Amazon EKS를 기반한 효율적인 CI/CD를 구축하기 위해, Statefulset으로 Jenkins/Argocd로 배포 시간 단축 및 기능별 브랜치로 테스트 인프라 구성사례를 소개합니다. DevOpsArt의 오픈소스 프로젝트 중 하나인 klocusts는 로드테스팅 도구인 Locust 를 쉽게 관리하기 위한 도구입니다. 이를 통해 EKS 기반 Fargate 활용사례도 같이 알아봅니다.
기존 데이타 센타 내 온프레미스 시스템을 Lift and shift 방식으로 안전하고 신속하게 마이그레이션하고자 하기 위해서는 발견(Discovery) 도구 및 마이그레이션 도구를 필요로 합니다. 이 세션에서는 AWS Application Discovery Service를 사용하여 기존 IT 인프라를 신속하게 발견하고 분석하는 방법을 보여줍니다. 또한 기존 인프라 디스커버리 및 마이그레이션 실행 자동화에 대한 모범 사례에 대해서도 설명합니다. 마지막으로, AWS DataSync와 같은 데이타 마이그레이션 서비스, 전체 어플리케이션의 마이그레이션 상황을 추적하도록 지원하고 가시화하는 AWS Migration Hub 서비스, 안전하고 확장성 있는 AWS 기본 환경인 AWS Landing Zone에 대해 소개합니다.
고승범(peter.ko) / kakao corp.(인프라2팀)
---
카카오에서는 빅데이터 분석, 처리부터 모든 개발 플랫폼을 이어주는 솔루션으로 급부상한 카프카(kafka)를 전사 공용 서비스로 운영하고 있습니다. 전사 공용 카프카를 직접 운영하면서 경험한 트러블슈팅과 운영 노하우 등을 공유하고자 합니다. 특히 카프카를 처음 접하시는 분들이나 이미 사용 중이신 분들이 많이 궁금해하는 프로듀서와 컨슈머 사용 시의 주의점 등에 대해서도 설명합니다.
데이터 분석가를 위한 신규 분석 서비스 - 김기영, AWS 분석 솔루션즈 아키텍트 / 변규현, 당근마켓 소프트웨어 엔지니어 :: AWS r...Amazon Web Services Korea
AWS re:Invent에서는 다양한 고객들의 요구에 맞추어 새로운 분석 및 서버리스 서비스가 대거 출시되었습니다. 본 강연에서는 새롭게 출시된 핵심 분석 기능들과 함께, 누구나 손쉽게 사용할 수 있는 AWS의 분석 서버리스와 On-demand 기능들에 대한 심층적인 정보를 확인하실 수 있습니다.
Amazon EKS를 통한 빠르고 편리한 컨테이너 플랫폼 활용 – 이일구 AWS 솔루션즈 아키텍트:: AWS Cloud Week - Ind...Amazon Web Services Korea
컨테이너를 활용하고자 하는 고객은 많이 있지만, 일정 규모 이상의 서비스를 하려면 오케스트레이션 플랫폼이 필수적 입니다. 직접 물리/가상 서버를 이용하여 컨테이너 플랫폼을 설치하는 방법도 있지만 이 경우 설치, 모니터링, 용량관리, 트래픽 처리 등 다양한 문제들을 마주하게 됩니다. AWS의 완전 관리형 쿠버네티스 서비스인 EKS를 통해 클러스터에 운영 시 고려해야하는 다양한 문제를 보다 쉽게 해결할 수 있습니다. 또한 다양한 에코 시스템과 연동하여 탄력적이고 비용 효율적인 모델을 서비스할 수 있도록 소개해 드립니다.
카카오 광고 플랫폼 MSA 적용 사례 및 API Gateway와 인증 구현에 대한 소개if kakao
황민호(robin.hwang) / kakao corp. DSP개발파트
---
최근 Spring Cloud와 Netflix OSS로 MSA를 구성하는 시스템 기반의 서비스들이 많아지는 추세입니다.
카카오에서도 작년에 오픈한 광고 플랫폼 모먼트에 Spring Cloud 기반의 MSA환경을 구성하여, API Gateway도 적용하였는데 1년 반 정도 운영한 경험을 공유할 예정입니다. 더불어 MSA 환경에서는 API Gateway를 통해 인증을 어떻게 처리하는지 알아보고 OAuth2 기반의 JWT Token을 이용한 인증에 대한 이야기도 함께 나눌 예정입니다.
OSMC 2022 | Ignite: Observability with Grafana & Prometheus for Kafka on Kube...NETWAYS
Self-managing a highly scalable distributed system with Apache Kafka® at its core is not an easy feat. That’s why operators prefer tooling such as Confluent Control Center for administering and monitoring their deployments. However, sometimes, you might also like to import monitoring data into a third-party metrics aggregation platform for service correlations, consolidated dashboards, root cause analysis, or more fine-grained alerts. If you’ve ever asked a question along these lines: Can I export JMX data from Confluent clusters to my monitoring system with minimal configuration? What if I could correlate this service’s data spike with metrics from Confluent clusters in a single UI pane? Can I configure some Grafana dashboards for Confluent clusters?
This talk will enable you on achieving the below:
Monitoring Your Event Streams: Integrating Confluent with Prometheus and Grafana (this article)
Monitoring Your Event Streams: Tutorial for Observability Into Apache Kafka Clients
source : http://www.opennaru.com/cloud/msa/
마이크로서비스는 애플리케이션 구축을 위한 아키텍처 기반의 접근 방식입니다. 마이크로서비스를 전통적인 모놀리식(monolithic) 접근 방식과 구별 짓는 기준은 애플리케이션을 핵심 기능으로 세분화하는 방식입니다. 각 기능을 서비스라고 부르며, 독립적으로 구축하고 배포할 수 있습니다. 이는 개별 서비스가 다른 서비스에 부정적 영향을 주지 않으면서 작동(또는 장애가 발생)할 수 있음을 의미합니다.
E-Commerce 를 풍성하게 해주는 AWS 기술들 - 서호석 이사, YOUNGWOO DIGITAL :: AWS Summit Seoul ...Amazon Web Services Korea
스폰서 발표 세션 | E-Commerce 를 풍성하게 해주는 AWS 기술들
서호석 이사, YOUNGWOO DIGITAL
최근 소비자들의 오프라인에서 온라인으로 이동해가는 강도가 가파르게 상승해가는 추세가 나타나고 있고 이제 E-Commerce 의 중요도는 과거와는 비교되지 않을정도로 높아 비지니스의 승패를 좌우하는 수준에 이르렀습니다. 이번 세션에서는 E-Commerce 를 받쳐주는 AWS 기술들을 살펴보고 미래지향적인 E-Commerce 에 대해 알아보는 시간을 가져보도록 합니다.
AWS의 CDN 서비스인 CloudFront의 가속 및 DDoS 방어 소개
# CloudFront 장점
- 수퍼 PoP: AWS 클라우드 구축/운영 Know-How 가 담긴 고성능/대용량 아키텍쳐
* 국내 최대 Capacity / 가장 빠르게 성장하는 글로벌 CDN 서비스
- Single-Service: (캐싱, 다이나믹 가속, HTTPS, AWS Shield Standard 등) 동일 가격 체계로 제공
- AWS Backbone 전용망: Edge <=> Origin 가속
- 인라인 DDoS 방어: Shield Standard & Advance
- AWS 서비스 연동성
컨테이너 및 서버리스를 위한 효율적인 CI/CD 아키텍처 구성하기 - 현창훈 데브옵스 엔지니어, Flex / 송주영 데브옵스 엔지니어, W...Amazon Web Services Korea
최근에 컨테이너 및 서버리스 환경의 지속적 통합 및 배포 (CI/CD)에 대한 관심이 늘어나고 있습니다. 본 세션에서는 Amazon EKS를 기반한 효율적인 CI/CD를 구축하기 위해, Statefulset으로 Jenkins/Argocd로 배포 시간 단축 및 기능별 브랜치로 테스트 인프라 구성사례를 소개합니다. DevOpsArt의 오픈소스 프로젝트 중 하나인 klocusts는 로드테스팅 도구인 Locust 를 쉽게 관리하기 위한 도구입니다. 이를 통해 EKS 기반 Fargate 활용사례도 같이 알아봅니다.
기존 데이타 센타 내 온프레미스 시스템을 Lift and shift 방식으로 안전하고 신속하게 마이그레이션하고자 하기 위해서는 발견(Discovery) 도구 및 마이그레이션 도구를 필요로 합니다. 이 세션에서는 AWS Application Discovery Service를 사용하여 기존 IT 인프라를 신속하게 발견하고 분석하는 방법을 보여줍니다. 또한 기존 인프라 디스커버리 및 마이그레이션 실행 자동화에 대한 모범 사례에 대해서도 설명합니다. 마지막으로, AWS DataSync와 같은 데이타 마이그레이션 서비스, 전체 어플리케이션의 마이그레이션 상황을 추적하도록 지원하고 가시화하는 AWS Migration Hub 서비스, 안전하고 확장성 있는 AWS 기본 환경인 AWS Landing Zone에 대해 소개합니다.
고승범(peter.ko) / kakao corp.(인프라2팀)
---
카카오에서는 빅데이터 분석, 처리부터 모든 개발 플랫폼을 이어주는 솔루션으로 급부상한 카프카(kafka)를 전사 공용 서비스로 운영하고 있습니다. 전사 공용 카프카를 직접 운영하면서 경험한 트러블슈팅과 운영 노하우 등을 공유하고자 합니다. 특히 카프카를 처음 접하시는 분들이나 이미 사용 중이신 분들이 많이 궁금해하는 프로듀서와 컨슈머 사용 시의 주의점 등에 대해서도 설명합니다.
데이터 분석가를 위한 신규 분석 서비스 - 김기영, AWS 분석 솔루션즈 아키텍트 / 변규현, 당근마켓 소프트웨어 엔지니어 :: AWS r...Amazon Web Services Korea
AWS re:Invent에서는 다양한 고객들의 요구에 맞추어 새로운 분석 및 서버리스 서비스가 대거 출시되었습니다. 본 강연에서는 새롭게 출시된 핵심 분석 기능들과 함께, 누구나 손쉽게 사용할 수 있는 AWS의 분석 서버리스와 On-demand 기능들에 대한 심층적인 정보를 확인하실 수 있습니다.
Amazon EKS를 통한 빠르고 편리한 컨테이너 플랫폼 활용 – 이일구 AWS 솔루션즈 아키텍트:: AWS Cloud Week - Ind...Amazon Web Services Korea
컨테이너를 활용하고자 하는 고객은 많이 있지만, 일정 규모 이상의 서비스를 하려면 오케스트레이션 플랫폼이 필수적 입니다. 직접 물리/가상 서버를 이용하여 컨테이너 플랫폼을 설치하는 방법도 있지만 이 경우 설치, 모니터링, 용량관리, 트래픽 처리 등 다양한 문제들을 마주하게 됩니다. AWS의 완전 관리형 쿠버네티스 서비스인 EKS를 통해 클러스터에 운영 시 고려해야하는 다양한 문제를 보다 쉽게 해결할 수 있습니다. 또한 다양한 에코 시스템과 연동하여 탄력적이고 비용 효율적인 모델을 서비스할 수 있도록 소개해 드립니다.
카카오 광고 플랫폼 MSA 적용 사례 및 API Gateway와 인증 구현에 대한 소개if kakao
황민호(robin.hwang) / kakao corp. DSP개발파트
---
최근 Spring Cloud와 Netflix OSS로 MSA를 구성하는 시스템 기반의 서비스들이 많아지는 추세입니다.
카카오에서도 작년에 오픈한 광고 플랫폼 모먼트에 Spring Cloud 기반의 MSA환경을 구성하여, API Gateway도 적용하였는데 1년 반 정도 운영한 경험을 공유할 예정입니다. 더불어 MSA 환경에서는 API Gateway를 통해 인증을 어떻게 처리하는지 알아보고 OAuth2 기반의 JWT Token을 이용한 인증에 대한 이야기도 함께 나눌 예정입니다.
OSMC 2022 | Ignite: Observability with Grafana & Prometheus for Kafka on Kube...NETWAYS
Self-managing a highly scalable distributed system with Apache Kafka® at its core is not an easy feat. That’s why operators prefer tooling such as Confluent Control Center for administering and monitoring their deployments. However, sometimes, you might also like to import monitoring data into a third-party metrics aggregation platform for service correlations, consolidated dashboards, root cause analysis, or more fine-grained alerts. If you’ve ever asked a question along these lines: Can I export JMX data from Confluent clusters to my monitoring system with minimal configuration? What if I could correlate this service’s data spike with metrics from Confluent clusters in a single UI pane? Can I configure some Grafana dashboards for Confluent clusters?
This talk will enable you on achieving the below:
Monitoring Your Event Streams: Integrating Confluent with Prometheus and Grafana (this article)
Monitoring Your Event Streams: Tutorial for Observability Into Apache Kafka Clients
source : http://www.opennaru.com/cloud/msa/
마이크로서비스는 애플리케이션 구축을 위한 아키텍처 기반의 접근 방식입니다. 마이크로서비스를 전통적인 모놀리식(monolithic) 접근 방식과 구별 짓는 기준은 애플리케이션을 핵심 기능으로 세분화하는 방식입니다. 각 기능을 서비스라고 부르며, 독립적으로 구축하고 배포할 수 있습니다. 이는 개별 서비스가 다른 서비스에 부정적 영향을 주지 않으면서 작동(또는 장애가 발생)할 수 있음을 의미합니다.
E-Commerce 를 풍성하게 해주는 AWS 기술들 - 서호석 이사, YOUNGWOO DIGITAL :: AWS Summit Seoul ...Amazon Web Services Korea
스폰서 발표 세션 | E-Commerce 를 풍성하게 해주는 AWS 기술들
서호석 이사, YOUNGWOO DIGITAL
최근 소비자들의 오프라인에서 온라인으로 이동해가는 강도가 가파르게 상승해가는 추세가 나타나고 있고 이제 E-Commerce 의 중요도는 과거와는 비교되지 않을정도로 높아 비지니스의 승패를 좌우하는 수준에 이르렀습니다. 이번 세션에서는 E-Commerce 를 받쳐주는 AWS 기술들을 살펴보고 미래지향적인 E-Commerce 에 대해 알아보는 시간을 가져보도록 합니다.
본 강연에서는 금융권 사례 중심으로 AWS 인프라 도입을 최적의 Design pattern 및 Behavior에 대하여 소개해 드립니다. AWS가 제공하는 서비스 중 특정 사용 사례와 워크로드에 적합한 서비스를 고르기 위해 고려해야 할 사항들에 대해 알아봅니다. 또한 AWS Direct Connect 파트너사인 KINX에서 Direct connect의 특징 및 PoC 프로그램에 대해 소개해 드립니다.
연사: 김봉환 솔루션 아키텍트, 아마존 웹서비스 / 남시우 차장, KINX 담당자
금융 X 하이브리드 클라우드 플랫폼 - 한화생명 디지털 트랜스포메이션 전략 - 김나영 AWS 금융부문 사업개발 담당 / 박인규 AWS 금융...Amazon Web Services Korea
금융권의 클라우드 여정과 AWS Outposts를 활용한 하이브리드 환경 구성 방법을 소개합니다. 한화생명은 급변하는 비즈니스와 기술 환경에 민첩하게 대응하고 고객에게 선진 상품을 제공하고자, AWS Outposts 기반의 하이브리드 환경을 통해 100% 컨테이너 기반의 마이크로서비스 아키텍쳐를 구성하였습니다. 금융 클라우드 이용 가이드 준수를 위한 관리 및 통합 거버넌스 체계 구축 방법부터 다양한 AWS 서비스를 활용한 민첩한 서비스 개발 방법까지 폭넓게 알아봅니다.
Session 1. 디지털 트렌스포메이션의 핵심, 클라우드 마이그레이션 A to Z - 베스핀글로벌 이근우 위원BESPIN GLOBAL
전 세계적으로 클라우드 기반의 디지털 트랜스포메이션이 빠르게 진행되고 있음에도 불구하고, 기업에서 클라우드를 도입하고 마이그레이션 하는 과정은 여전히 어려움이 많습니다. 성공적인 마이그레이션은 클라우드로의 단순 인프라 변경에서 그치는 것이 아니라 비즈니스와 프로세스가 함께 변화할 때 완성될 수 있습니다.
그리고 그 변화의 중심에는 인공지능(AI)과 머신러닝(ML)이 있습니다. 인공지능과 머신러닝은 모든 것을 자동화하여 스스로 데이터를 분류하며 유의미한 가치를 찾아냅니다. 바로 여기에서부터 기업의 비즈니스 혁신은 시작됩니다.
클라우드로의 디지털 트랜스포메이션 전략과 인공지능/머신러닝을 활용한 비즈니스 혁신 방법 중, 어떻게 성공적으로 클라우드 마이그레이션을 할 수 있을지에 대해 이번 세션을 통해 알아보겠습니다.
Openshift 활용을 위한 Application의 준비, Cloud Nativerockplace
What is Cloud-native - DevOps, MSA and Cloud-native: Openshift 활용을 위한 Application의 준비, Cloud Native
*웨비나 다시보기 영상 바로가기:
https://www.youtube.com/watch?v=tzSBS-vki6w
Catch the Wave: SAP Event-Driven and Data Streaming for the Intelligence Ente...confluent
In our exclusive webinar, you'll learn why event-driven architecture is the key to unlocking cost efficiency, operational effectiveness, and profitability. Gain insights on how this approach differs from API-driven methods and why it's essential for your organization's success.
Unlocking the Power of IoT: A comprehensive approach to real-time insightsconfluent
In today's data-driven world, the Internet of Things (IoT) is revolutionizing industries and unlocking new possibilities. Join Data Reply, Confluent, and Imply as we unveil a comprehensive solution for IoT that harnesses the power of real-time insights.
Workshop híbrido: Stream Processing con Flinkconfluent
El Stream processing es un requisito previo de la pila de data streaming, que impulsa aplicaciones y pipelines en tiempo real.
Permite una mayor portabilidad de datos, una utilización optimizada de recursos y una mejor experiencia del cliente al procesar flujos de datos en tiempo real.
En nuestro taller práctico híbrido, aprenderás cómo filtrar, unir y enriquecer fácilmente datos en tiempo real dentro de Confluent Cloud utilizando nuestro servicio Flink sin servidor.
Industry 4.0: Building the Unified Namespace with Confluent, HiveMQ and Spark...confluent
Our talk will explore the transformative impact of integrating Confluent, HiveMQ, and SparkPlug in Industry 4.0, emphasizing the creation of a Unified Namespace.
In addition to the creation of a Unified Namespace, our webinar will also delve into Stream Governance and Scaling, highlighting how these aspects are crucial for managing complex data flows and ensuring robust, scalable IIoT-Platforms.
You will learn how to ensure data accuracy and reliability, expand your data processing capabilities, and optimize your data management processes.
Don't miss out on this opportunity to learn from industry experts and take your business to the next level.
La arquitectura impulsada por eventos (EDA) será el corazón del ecosistema de MAPFRE. Para seguir siendo competitivas, las empresas de hoy dependen cada vez más del análisis de datos en tiempo real, lo que les permite obtener información y tiempos de respuesta más rápidos. Los negocios con datos en tiempo real consisten en tomar conciencia de la situación, detectar y responder a lo que está sucediendo en el mundo ahora.
Eventos y Microservicios - Santander TechTalkconfluent
Durante esta sesión examinaremos cómo el mundo de los eventos y los microservicios se complementan y mejoran explorando cómo los patrones basados en eventos nos permiten descomponer monolitos de manera escalable, resiliente y desacoplada.
Purpose of the session is to have a dive into Apache, Kafka, Data Streaming and Kafka in the cloud
- Dive into Apache Kafka
- Data Streaming
- Kafka in the cloud
Build real-time streaming data pipelines to AWS with Confluentconfluent
Traditional data pipelines often face scalability issues and challenges related to cost, their monolithic design, and reliance on batch data processing. They also typically operate under the premise that all data needs to be stored in a single centralized data source before it's put to practical use. Confluent Cloud on Amazon Web Services (AWS) provides a fully managed cloud-native platform that helps you simplify the way you build real-time data flows using streaming data pipelines and Apache Kafka.
Q&A with Confluent Professional Services: Confluent Service Meshconfluent
No matter whether you are migrating your Kafka cluster to Confluent Cloud, running a cloud-hybrid environment or are in a different situation where data protection and encryption of sensitive information is required, Confluent Service Mesh allows you to transparently encrypt your data without the need to make code changes to you existing applications.
Citi Tech Talk: Event Driven Kafka Microservicesconfluent
Microservices have become a dominant architectural paradigm for building systems in the enterprise, but they are not without their tradeoffs. Learn how to build event-driven microservices with Apache Kafka
Confluent & GSI Webinars series - Session 3confluent
An in depth look at how Confluent is being used in the financial services industry. Gain an understanding of how organisations are utilising data in motion to solve common problems and gain benefits from their real time data capabilities.
It will look more deeply into some specific use cases and show how Confluent technology is used to manage costs and mitigate risks.
This session is aimed at Solutions Architects, Sales Engineers and Pre Sales, and also the more technically minded business aligned people. Whilst this is not a deeply technical session, a level of knowledge around Kafka would be helpful.
Transforming applications built with traditional messaging solutions such as TIBCO, MQ and Solace to be scalable, reliable and ready for the move to cloud
How can applications built with traditional messaging technologies like TIBCO, Solace and IBM MQ be modernised and be made cloud ready? What are the advantages to Event Streaming approaches to pub/sub vs traditional message queues? What are the strengeths and weaknesses of both approaches, and what use cases and requirements are actually a better fit for messaging than Kafka?
This session will show why the old paradigm does not work and that a new approach to the data strategy needs to be taken. It aims to show how a Data Streaming Platform is integral to the evolution of a company’s data strategy and how Confluent is not just an integration layer but the central nervous system for an organisation
Vous apprendrez également à :
• Créer plus rapidement des produits et fonctionnalités à l’aide d’une suite complète de connecteurs et d’outils de gestion des flux, et à connecter vos environnements à des pipelines de données
• Protéger vos données et charges de travail les plus critiques grâce à des garanties intégrées en matière de sécurité, de gouvernance et de résilience
• Déployer Kafka à grande échelle en quelques minutes tout en réduisant les coûts et la charge opérationnelle associés
Confluent Partner Tech Talk with Synthesisconfluent
A discussion on the arduous planning process, and deep dive into the design/architectural decisions.
Learn more about the networking, RBAC strategies, the automation, and the deployment plan.
11. Confluent는 100만 시간 이상 축적된 전문 지식을 기반으로 10,000개 이상의 클라우드
네이티브 Apache Kafka 클러스터를 효율적이고 효과적으로 관리하고 운영합니다.
11
Resilient
Infinite
Elastic
Run Consistently
Run Anywhere
Stream Governance
Stream Processing
120+ Connectors
Run Unified
클라우드의 장점을 활용하도록 완전히
관리되고 재설계된 Apache Kafka
Kafka 그 이상의 완전한 데이터 스트리밍
플랫폼을 위한 모든 필수 도구 제공
온프레미스에서 클라우드 및 클라우드
전반에 걸친 플랫폼으로 데이터를
실시간으로 연결
Cloud Native Complete Everywhere
Built by the founders of Apache Kafka®
Confluent Cloud
Apache Kafka® 설립자가 구축한 클라우드 네이티브 데이터 스트리밍 플랫폼
12. Confluent는 유일한 완전 관리형 Kafka 서비스를 제공합니다.
완전 관리형 SaaS는 사용하기 쉽고 안정적인 서비스를 제공합니다.
자체 관리형 IaaS 호스팅된 클라우드 서비스 완전 관리형 SaaS
Scaling Scaling Scaling
Load balancing Load balancing Load balancing
Partition placement Partition placement Partition placement
Logical Storage Logical Storage Logical Storage
Broker settings Broker settings Broker settings
Zookeeper Zookeeper Zookeeper
Kafka patching Kafka patching Kafka patching
JVM JVM JVM
O/S O/S O/S
VMs VMs VMs
Servers Servers Servers
프로바이더
관리
기능
제품 사용
편이성
Confluent Cloud
타사 Kafka
Cloud Services
Apache Kafka
12
13. Open Source Kafka
모든 단계의 운영 부담
CONFLUENT CLOUD
자동화된 운영으로 효율적인 성장 가능
sizing provisioning
infra
monitoring
upgrades
software
patches
topic
monitoring
cluster
expansion
connectors
non-Java
clients
sizing
provisioning
software
patches
infra
monitoring
upgrades
topic
monitoring
cluster
expansion
connectors
non-Java
clients
수동 작업
(적을수록 좋음)
자동화된 제품 기능
(많을수록 좋음)
PLAN DEPLOY OPERATE SCALE PLAN DEPLOY OPERATE SCALE
선택의 자유(Confluent Platform/Confluent Cloud)
커미터 기반 Kafka 전문성 및 엔터프라이즈급 기술 지원
오픈 소스 Kafka
사내 Kafka 지원 전문 지식 필요
Confluent는 Kafka 여정 전반에 걸쳐 클라우드 네이티브 경험을
제공합니다. Cloud Native Self managed Custom
14. Confluent 인증 정보
Confluent는 다양한 산업군과
기관에서 요구하는 보안, 규정 준수
및 개인 정보 보호에 대한 기업
고객의 요구 사항을 지원하도록
설계되었습니다.
엔터프라이즈 등급 보안
• Confluent는 고객 데이터를 안전하게 보호하도록 설계된
계층형 보안 제어를 구현합니다.
• Confluent의 보안 포털을 통해 보안 백서와 규정 준수
인증(ISO, SOC 2)을 확인 할 수 있습니다.
출처: https://www.confluent.io/ko-kr/trust-and-security/
15. ...몇 개월 몇일이 아닌 수 분 만에 배포, 운영 및 확장 가능
진정한 클라우드 네이티브로 재설계된 Kafka
15
Months Minutes
Weeks
Open Source
Apache Kafka
엔터프라이즈급 지원 없는
자체 개발 및 유지 관리
Self-managed
Kafka Services
전문화 되지 않은 기본 툴을 이용한
수동 작업
Confluent
Cloud
완전 관리형, 탄력성,
오버헤드가 없는 자동화된 제품
기능
16. Cloud Native
클라우드의 장점을 활용할 수 있도록 완벽하게 관리되고 재설계된 Apache Kafka®
애플리케이션 및 분석 기능을
제공하는 Kafka의 복원력
보장
스트리밍 데이터 기록 액세스
및 저장
스트리밍 요구 사항에 맞게
리소스 확장 및 축소
필요할 때마다 Kafka 항목 내에서 무한
스토리지를 사용할 수 있으며 사용할 때만
청구
Kafka 스토리지를 수동으로
프로비저닝하려면 세부적인 계획과 기능
간 조정 필요
99.99% 가동 시간 SLA*, 다운타임 없이
Kafka 업그레이드 및 패치 제공.
HA 및 Fail-Over를 위한 추가 인프라 및
리소스, 정책 개발/구현에 FTE 필요,
까다로운 업그레이드/패치 필요
탄력적으로 확장되는 클러스터를
완벽하게 즉각적으로 프로비저닝
Kafka 클러스터의 크기 조정, 프로비저닝,
확장 및 유지보수를 수동으로 수행
Confluent Cloud
Self-managed Kafka
“Confluent를 사용하기 이전에는 재구축이 필요한 브로커에 운영 중단이 발생하면 개발자가 해결하는 데 최대 3일이 걸릴 수 도 있었습니다. 이제
Confluent가 모든 것을 처리하므로 개발자는 새로운 기능과 애플리케이션을 구축하는 데 집중할 수 있습니다.”
— Jon Vines, Software Development Team Lead at AO.com
16
*Multi-zone Cluster에서 99.99%의 가동 시간 SLA 사용 가능
17. Complete
완벽한 데이터 스트리밍 플랫폼을 위한 모든 필수 툴로 Kafka 그 이상을 누리십시오.
모든 데이터 스트림 관리 및
보안
스트림 처리 배포 및 실시간 앱
빌드
모든 시스템과 연결
완벽하게 관리되는 ksqlDB에서 몇 개의
SQL 문만으로 실시간 데이터 스트림 즉시
처리
스트림 처리 사용 사례를 위한 새로운
인프라의 사용자 지정 크기 조정,
프로비저닝 및 확장
즉시 사용할 수 있는 스트림 거버넌스,
관리 및 모니터링, 엔터프라이즈급 보안 툴
커스텀으로 구축 및 유지 관리된 거버넌스,
보안, 네트워킹 및 규정 준수 기능
120개 이상의 커넥터를 통해 클러스터를
모든 소스/싱크 시스템 또는 앱과 즉시
통합
모든 소스 및 싱크 시스템과의 통합을
수동으로 구축하는 데 몇 개월 소요되며,
시간이 지남에 따라 지원 및 유지 관리 에
많은 투자 필요
Confluent Cloud
Self-managed Kafka
“Confluent를 사용하면 보다 원활한 백엔드 환경을 구축하여 원하는 내용을 빠르고 쉽게 변경할 수 있습니다.”
— Sean Schade, Platform Architect at Care.com 17
18. Everywhere
온프레미스에서 클라우드 및 하이브리드 클라우드 전반에 걸쳐 제공되는 플랫폼을 통해 실시간으로
데이터 연결
빠르고 안전하게 클라우드로
전환
클라우드와 온프레미스에서
데이터 환경 통합
모든 클라우드
프로바이더에서 신속하고
일관된 구현
데이터를 완벽하게 미러링하는 Cluster
Linking 및 전역적으로 연결된
클러스터를 통해 모든 환경에서 모든
실시간 데이터에 액세스
모든 클라우드 또는 온프레미스 환경에서
작동하지만 수동 마이그레이션과 데이터
이동을 느리게 하는 긴 프로세스로 둘
사이에는 정상적으로 작동하지 않음
Confusent Platform과 하이브리드
Kafka 서비스를 통해 온프레미스
클러스터와 클라우드 클러스터 간에
클라우드로 연결되는 브리지 구축
Kafka 및 다운스트림 워크로드를
클라우드로 단방향 마이그레이션하는
다년간의 프로젝트
AWS, Azure 및 Google Cloud에서 완전
관리형 서비스로 Confluent를 신속하게
프로비저닝
Kafka를 구축하고자 하는 각 CSP의
컴퓨팅, 스토리지 및 네트워킹 전문가 필요
Confluent Cloud
“클라우드 네이티브의 민첩한 회사로의 전환에는 오픈 소스 Apache Kafka에서 대규모 마이그레이션이 필요했습니다. Confluent를 통해
우리는 이제 모든 환경에서 실시간 데이터 공유를 지원하고 하이브리드 클라우드 로드맵을 위한 명확한 경로를 볼 수 있습니다.”
— Justin Dempsey, Senior Manager, Software Development, Cloud and Information Services, SAS
18
Self-managed Kafka
19. Confluent Cloud는 클라우드 서비스 제공업체 및 파트너
모두의 신뢰를 받고 있습니다.
주요 서비스와 직접 통합 통합 운영 및 과금 경험 완벽히 인증된 기술 파트너
Kinesis
Redshif
t
Dynamo
DB
SQS
Cloud-
watch
S3
통합 과금 경험
AWS, GCP 및 Azure Marketplace를
통해 직접 거래하여 번거러움을 제거하고
기존 커밋을 소진하며 새롭고 풍부한
디지털 프런트 엔드 고객 경험을 제공
통합 보안 및 관리
기본 암호화, 사설 네트워킹 및 싱글
사인온을 통해 신뢰할 수 있는
엔터프라이즈 등급 보안을 제공합니다.
AWS PrivateLink 또는 Azure Private
Link를 통해 동일하고 안전한 네트워크
설정하고 완전 관리형 커넥터를 사용하여
기존 AWS CloudWatch 모니터링을
Confluent로 확장
Cloud
Storag
e
BigQue
ry
Cloud
Functio
ns
Cloud
Spanner
Datapro
c
Bigtable
Blob
Storag
e
Synaps
e
ADLS
Azure
Event
Hub
Cosmos
DB
Azure
Functio
ns
Strategic
Alliance
3X in
a row!
AWS Native Services
GCP Native Services
Azure Native Services
ISV Services
20. Replicator
/Cluster Linking
OT data for IoT
App Messages
App Logs
DBs
JDBC / CDC
connectors
Connect & Offload
120개 이상의 Confluent Pre-built Connector를
활용하여 OT 데이터 및 Application 데이터, DB
데이터를 포함한 기존 온프레미스 서비스에서 가치 있는
데이터를 지속적으로 수집
Modernize
애플리케이션을 시장에 출시하는 데 있어 민첩성을
높이고 가치 창출 활동에 집중하여 TCO 절감하고 OT
데이터를 분석하여 품질/장애율 개선 및 예측 가능한 물류
체인 구축
Bridge
여러 환경에서 일관된 이벤트
중심 아키텍처를 사용하는
하이브리드 클라우드
스트리밍
Data Streams
Apps
ksqlDB
Sink
Connectors
Amazon S3
Azure Blob Storage
Azure Power BI
Amazon Athena
AWS Lambda
AWS Redshift
Sensor Data
Facility Data
온프레미스에서 하이브리드 클라우드로의 전환 가속화
On-prem Multi Cloud
Bridge to Hybrid Cloud
Google BigQuery
26. Confluent Cloud는 TCO 절감과 가속화된 가치 실현
시간으로 ROI를 극대화합니다.
총 소유 비용(TCO) 절감
인프라 비용, 개발 및 운영
오버헤드, 다운타임 위험 감소로
60% 이상 더 비용 효율적으로
운영
가치 실현 시간 단축
Confluent Cloud 시작 후
1주일 이내에 Kafka 배포,
운영 및 확장
비즈니스 성공을 위한
재능 확보
유능하고 경험이 풍부한
엔지니어의 인프라 관리의
부담을 줄여 새로운
비즈니스의 사용 사례에
집중해, 조직이 목표를 달성
Source 26
27. Confluent Cloud로 시작해 보세요!
Confluent Cloud 무료 체험,
지금 신청하세요!
신규 가입하면 60일 동안 400달러 무료 사용 가능
Live Lab에 가입하세요!
https://www.confluent.io/ko-kr/
get-started/
https://bit.ly/3rc1QB8