본 온라인 세미나에서는 AWS 서비스를 활용하시는데 있어, 총 소유비용(TCO) 관점에서 클라우드 사용시 장점에 대해 이해하고, AWS서비스 사용시 어떻게 하면 비용최적화를 잘 할 수 있을지를 예약인스턴스, 스팟인스턴스, S3의 라이프사이클 정책 활용 방법 등을 통해 학습합니다.
더 많은 AWS 온라인 세미나 알아보기: https://aws.amazon.com/ko/events/webinars/series
발표영상 다시보기: https://youtu.be/1HlRVG6OPBo
고객의 온프레미스 데이터를 클라우드로 마이그레이션 또는 하이브리드 환경을 구축하기 위해서 다양한 요구사항들이 존재합니다. 이번 세션에서는 AWS로 데이터를 마이그레이션 및 전송하기 위한 스토리지 서비스들을 소개합니다. 하이브리드 환경을 위한 AWS Storage Gateway와 백업 중앙화 관리 및 자동화를 위한 AWS Backup의 연계, 데이터 전송을 위한 AWS DataSync 및 AWS Transfer for SFTP 등의 스토리지 서비스 개요 및 Use Case를 소개하며, 대용량 데이터 마이그레이션을 위한 AWS Snowball 서비스를 고객사례와 함께 설명드립니다.
발표영상 다시보기: https://youtu.be/eQjkwhyOOmI
대규모 데이터 레이크 구성 및 관리는 복잡하고 시간이 많이 걸리는 작업입니다. AWS Lake Formation은 수일만에 안전한 데이터 레이크를 구성할 수 있는 완전 관리 서비스입니다. 본 세션에서는 데이터 수집, 분류, 정리, 변환 및 보안을 위해 AWS Lake Formation을 통해 Amazon S3, EMR, Redshift 및 Athena와 같은 분석 도구를 쉽게 구성하는 방법을 알아봅니다. (2019년 11월 서울 리전 출시)
- 동영상 보기: https://www.youtube.com/watch?v=Rq4I57eqIp4
Amazon RDS 프록시는 Amazon Relational Database Service (RDS)를 위한 완전 관리형 고가용성 데이터베이스 프록시로, 애플리케이션의 확장 성, 데이터베이스 장애에 대한 탄력성 및 보안 성을 향상시킬 수 있습니다. (2020년 6월 서울 리전 출시)
In this session, we introduce AWS Glue, provide an overview of its components, and share how you can use AWS Glue to automate discovering your data, cataloging it, and preparing it for analysis.
고객의 플랫폼/서비스를 개선한 국내 사례 살펴보기 – 장준성 AWS 솔루션즈 아키텍트, 강산아 NDREAM 팀장, 송영호 야놀자 매니저, ...Amazon Web Services Korea
AWS는 175개 이상의 다양한 서비스를 제공해드리고 있습니다. 주요 서비스들 외에도 고객 서비스의 품질을 개선하는 데에 이러한 다양한 AWS의 서비스들의 도움을 받을 수 있습니다. 이번 세션에서는 AWS Transit Gateway, AWS Global Accelerator, AWS Shield, AWS IoT, Amazon WorkSpaces 를 통해서 고객의 플랫폼/서비스를 개선한 국내 사례들을 살펴보며 AWS 서비스들을 어떻게 활용할 수 있는지 보여드립니다.
본 온라인 세미나에서는 AWS 서비스를 활용하시는데 있어, 총 소유비용(TCO) 관점에서 클라우드 사용시 장점에 대해 이해하고, AWS서비스 사용시 어떻게 하면 비용최적화를 잘 할 수 있을지를 예약인스턴스, 스팟인스턴스, S3의 라이프사이클 정책 활용 방법 등을 통해 학습합니다.
더 많은 AWS 온라인 세미나 알아보기: https://aws.amazon.com/ko/events/webinars/series
발표영상 다시보기: https://youtu.be/1HlRVG6OPBo
고객의 온프레미스 데이터를 클라우드로 마이그레이션 또는 하이브리드 환경을 구축하기 위해서 다양한 요구사항들이 존재합니다. 이번 세션에서는 AWS로 데이터를 마이그레이션 및 전송하기 위한 스토리지 서비스들을 소개합니다. 하이브리드 환경을 위한 AWS Storage Gateway와 백업 중앙화 관리 및 자동화를 위한 AWS Backup의 연계, 데이터 전송을 위한 AWS DataSync 및 AWS Transfer for SFTP 등의 스토리지 서비스 개요 및 Use Case를 소개하며, 대용량 데이터 마이그레이션을 위한 AWS Snowball 서비스를 고객사례와 함께 설명드립니다.
발표영상 다시보기: https://youtu.be/eQjkwhyOOmI
대규모 데이터 레이크 구성 및 관리는 복잡하고 시간이 많이 걸리는 작업입니다. AWS Lake Formation은 수일만에 안전한 데이터 레이크를 구성할 수 있는 완전 관리 서비스입니다. 본 세션에서는 데이터 수집, 분류, 정리, 변환 및 보안을 위해 AWS Lake Formation을 통해 Amazon S3, EMR, Redshift 및 Athena와 같은 분석 도구를 쉽게 구성하는 방법을 알아봅니다. (2019년 11월 서울 리전 출시)
- 동영상 보기: https://www.youtube.com/watch?v=Rq4I57eqIp4
Amazon RDS 프록시는 Amazon Relational Database Service (RDS)를 위한 완전 관리형 고가용성 데이터베이스 프록시로, 애플리케이션의 확장 성, 데이터베이스 장애에 대한 탄력성 및 보안 성을 향상시킬 수 있습니다. (2020년 6월 서울 리전 출시)
In this session, we introduce AWS Glue, provide an overview of its components, and share how you can use AWS Glue to automate discovering your data, cataloging it, and preparing it for analysis.
고객의 플랫폼/서비스를 개선한 국내 사례 살펴보기 – 장준성 AWS 솔루션즈 아키텍트, 강산아 NDREAM 팀장, 송영호 야놀자 매니저, ...Amazon Web Services Korea
AWS는 175개 이상의 다양한 서비스를 제공해드리고 있습니다. 주요 서비스들 외에도 고객 서비스의 품질을 개선하는 데에 이러한 다양한 AWS의 서비스들의 도움을 받을 수 있습니다. 이번 세션에서는 AWS Transit Gateway, AWS Global Accelerator, AWS Shield, AWS IoT, Amazon WorkSpaces 를 통해서 고객의 플랫폼/서비스를 개선한 국내 사례들을 살펴보며 AWS 서비스들을 어떻게 활용할 수 있는지 보여드립니다.
기업들은 데이터로부터 insight를 얻기 위해서 부단한 노력을 하고 있습니다. 이를 위해 조직의 데이터를 한 곳에 모아서 보관하는 Data Lake의 구축은 데이터 분석을 위한 중심으로 자리잡고 있습니다. 본 세션에서는 AWS에서 S3를 활용하여 민첩하고 비용효율적인 Data Lake를 구축하는 방법을 소개합니다. 또한 이를 기반으로 AWS의 다양한 데이터 분석 서비스와 연동하는 법을 살펴봅니다.
대상 :
빅 데이터 및 데이터 분석 담당자, AWS 기반 데이터 분석에 관심 있는 모든 분
발표자 :
문종민 솔루션즈 아키텍트, AWS
아름답고 유연한 데이터 파이프라인 구축을 위한 Amazon Managed Workflow for Apache Airflow - 유다니엘 A...Amazon Web Services Korea
Apache Airflow는 복잡한 데이터 처리 파이프라인의 전체적인 프로세스를 자동화하기 위한 워크플로우 관리 플랫폼이며 오픈 소스 커뮤니티에서 활발하게 기여하고 있는 top-level 프로젝트 입니다. AWS는 최근에 Amazon Managed Workflow for Apache Airflow (MWAA) 서비스를 정식 출시하였고, 본 강연에서는 Apache Airflow 및 MWAA를 소개하고 어떻게 AWS 서비스와 연동하여 데이터 처리 워크플로우를 구축할 수 있는지 데모를 통해 알려 드립니다.
[AWS Builders 온라인 시리즈] AWS 서비스를 활용하여 파일 스토리지 빠르게 마이그레이션 하기 - 서지혜, AWS 솔루션즈 아키텍트Amazon Web Services Korea
발표자료 다시보기: https://www.youtube.com/watch?v=cw1kdghcQKo
이 세션에서는 AWS 하이브리드 스토리지 솔루션을 활용하여 파일 기반 비정형 스토리지를 AWS로 이동하는 방법에 대해 알아봅니다. AWS Storage Gateway, AWS DataSync 및 AWS SFTP (Secure file Transfer Protocol)에 대해 알아보고 여러분의 워크로드를 어떻게 구현 할 수 있는지 사례를 통해 알아봅니다.
Amazon SageMaker는 머신러닝 프로젝트를 위한 통합 플랫폼입니다. SageMaker의 기능 중 Amazon SageMaker Studio는 머신러닝 통합 개발환경을 제공하여, 데이터를 준비에서부터 모델을 빌드, 교육 및 배포하는 데 필요한 모든 단계를 수행할 수 있습니다. Amazon EMR은 Apache Spark, Apache Hive 및 Presto와 같은 오픈 소스 분석 프레임워크를 사용하여 대규모 분산 데이터 처리 작업, 대화형 SQL 쿼리 및 ML 애플리케이션을 실행하기 위한 빅 데이터 플랫폼입니다. 이 세션에서는 데이터 과학자와 ML 엔지니어가 ML 워크플로우에서 분산 빅 데이터 프레임워크를 쉽게 사용할 수 있도록 상호 서비스 간의 통합에 대하여 데모를 통해 알아봅니다.
This session is focused on diving into the AWS IAM policy categories to understand the differences, learn how the policy evaluation logic works, and go over some best practices. We will then walk through how to use permission boundaries to truly delegate administration in AWS.
데이터 분석플랫폼을 위한 데이터 전처리부터 시각화까지 한번에 보기 - 노인철 AWS 솔루션즈 아키텍트 :: AWS Summit Seoul ...Amazon Web Services Korea
기업의 비즈니스 혁신의 기반인 데이터 분석 플랫폼은 쉽고 빠르게 구축할 수 있는 방법이 요구됩니다. 이를 위해 본 강연에서는 데이터 전처리를 코드없이 사용자 친화적 유저 인터페이스(GUI)로 수행할 수 있는 AWS Glue DataBrew , 데이터 추출, 변환 및 저장(ETL)을 위한 서버리스 서비스인 AWS Glue Studio, 데이터 카탈로그에 대한 권한통제 방법, 데이터웨어하우스 구축을 위한 Amazon Redshift 의 기술을 소개하고 대규모 데이터웨어하우스(DW) 클러스터간 데이터 공유 방법과 코드없이 기계 학습을 수행할 수 있는 기능들을 알려드립니다.
Big Data Analytics Architectural Patterns and Best Practices (ANT201-R1) - AW...Amazon Web Services
In this session, we discuss architectural principles that helps simplify big data analytics.
We'll apply principles to various stages of big data processing: collect, store, process, analyze, and visualize. We'll disucss how to choose the right technology in each stage based on criteria such as data structure, query latency, cost, request rate, item size, data volume, durability, and so on.
Finally, we provide reference architectures, design patterns, and best practices for assembling these technologies to solve your big data problems at the right cost.
Amazon Kinesis provides services for you to work with streaming data on AWS. Learn how to load streaming data continuously and cost-effectively to Amazon S3 and Amazon Redshift using Amazon Kinesis Firehose without writing custom stream processing code. Get an introduction to building custom stream processing applications with Amazon Kinesis Streams for specialized needs.
최근 국내에도 글로벌 서비스나 급성장하는 웹 서비스를 쉽게 볼 수 있습니다. 초기에 RDBMS로 시작된 서비스들은 규모가 성장함에 따라 샤딩과 NoSQL의 선택의 기로에 서게 됩니다. Amazon DynamoDB는 모든 스케일에서 사용할 수 있는 완전 관리형 Key-Value NoSQL 데이터베이스이지만 여전히 Key Design은 가장 어려운 영역 중 하나입니다. 이 세션에서는 대규모 서비스의 키 디자인 방법을 알아봅니다.
Review of how AWS EC2 storage options have evolved, and making the right selection for your workload. Covering Amazon Elastic Block Storage, EBS and Amazon Elastic File System, EFS.
금융권 최신 AWS 도입 사례 총정리 – 신한 제주 은행, KB손해보험 사례를 중심으로 - 지성국 사업 개발 담당 이사, AWS / 정을용...Amazon Web Services Korea
금융권 최신 AWS 도입 사례 총정리 – 신한 제주 은행, KB손해보험 사례를 중심으로
지성국 사업 개발 담당 이사, AWS
정을용 수석, 신한 DS
노용헌 이사, 메가존
금융권 클라우드 규제 환경에서도 많은 고객들이 AWS를 사용하여 업무를 혁신하여 왔습니다. 크게 보면 새로운 사업에 AWS를 활용하여 혁신할 수 있는지와 기존 업무를 AWS로 신속하게 안전하게 이전하는 것으로 누누어 볼 수 있습니다. 첫 번째 사례로 신한 제주 은행 지니앱 개발 사례를 통하여 신한 DS가 비금융 앱인 "제주 지니" 프로젝트에 AWS기반 데브옵스 체계를 금융권 최초로 구축한 사례를 소개합니다. 단순히, Infra form factor만 클라우드를 활용하던 관행에서 벗어나 개발, 테스트, 스테이징, 배포 등 CI/CD 전 과정을 AWS상에서 자동으로 구현하는 과정을 통하여 기존 On premise 대비 AWS 클라우드의 장점 및 이를 통해 배운 점 등을 공유합니다. 다음으로는 해외 북미 법인 DC 전체를 AWS 로 All-in 마이그레이션을 통하여 운영중인 K 손해보험 사례를 공유합니다. K 손해보험의 미주법인은 새롭게 시행된 미국의 강력한 사이버 보안 정책이 23 NYCRR500을 준수하면서 On premise 환경보다 우월한 보안 요건을 준수하기 위하여 AWS 클라우드 검토하게 되었으며 AWS의 금융전문파트너인 메가존과 함께 뉴저지와 캘리포니아에 위치한 2개의 데이터센터를 모두 AWS 클라우드로 이관하는데 성공하였습니다. 약 6개월간 진행된 해당 프로젝트에 대한 사례소개 및 이를 통한 비용 절감의 효과를 공유해 드리며 현재도 계속 지원하고 있는 메가존의 AWS 클라우드 매니지드 서비스의 효과도 함께 전달 드립니다.
데이터 분석가를 위한 신규 분석 서비스 - 김기영, AWS 분석 솔루션즈 아키텍트 / 변규현, 당근마켓 소프트웨어 엔지니어 :: AWS r...Amazon Web Services Korea
AWS re:Invent에서는 다양한 고객들의 요구에 맞추어 새로운 분석 및 서버리스 서비스가 대거 출시되었습니다. 본 강연에서는 새롭게 출시된 핵심 분석 기능들과 함께, 누구나 손쉽게 사용할 수 있는 AWS의 분석 서버리스와 On-demand 기능들에 대한 심층적인 정보를 확인하실 수 있습니다.
[보험사를 위한 AWS Data Analytics Day] 5_KB금융그룹과 계열사의 AWS 기ᄇ...AWS Korea 금융산업팀
KB금융 그룹은 다양한 채널 서비스와 분석 플랫폼에 AWS클라우드를 활용하고 있습니다. 특히, KB카드는 AWS클라우드를 이용하여 대부분의 채널서비스를 AWS클라우드로 이관하였고, 연관된 분석플랫폼과 머신러닝 플랫폼을 AWS기반 클라우드로 구성하여 사용하고 있습니다. 이번 세션에서는 KB카드를 포함한 다양한 KB금융그룹 차원의 AWS클라우드내의 Analytics 구성 사례에 대해서 소개해 드리고자 합니다.
Module1 - Amazon Personalize 중심으로 살펴보는 추천 시스템의 원리와 구축
Module 2 - 추천 시스템을 위한 데이터 분석 시스템 구축 하기
Module 3 - E-Commerce 사이트를 보다 Smart 하게 만들기 (Amazon Comprehend & Fraud Detector)
EMR 플랫폼 기반의 Spark 워크로드 실행 최적화 방안 - 정세웅, AWS 솔루션즈 아키텍트:: AWS Summit Online Ko...Amazon Web Services Korea
발표영상 다시보기: https://youtu.be/hPvBst9TPlI
S3 기반의 데이터레이크에서 대량의 데이터 변환과 처리에 사용될 수 있는 가장 대표적인 솔루션이 Apache Spark 입니다. EMR 플랫폼 환경에서 쉽게 적용 가능한 Apache Spark의 성능 향상 팁을 소개합니다. 또한 데이터의 레코드 레벨 업데이트, 리소스 확장, 권한 관리 및 모니터링과 같은 다양한 데이터 워크로드 관리 최적화 방안을 함께 살펴봅니다.
모바일 퍼스트 시대에서 점점 더 고객과의 접점이 늘어나고 있습니다. 다양한 비금융 애플리케이션은 고객들의 수요에 탄력적으로 대응할 수 있는 시스템이 필요합니다. 본 강연에서는 AWS 위에서 최적의 솔루션을 구현하는 방안에 대해 공유합니다.
연사: 이창수 솔루션 아키텍트, 아마존 웹서비스
기업들은 데이터로부터 insight를 얻기 위해서 부단한 노력을 하고 있습니다. 이를 위해 조직의 데이터를 한 곳에 모아서 보관하는 Data Lake의 구축은 데이터 분석을 위한 중심으로 자리잡고 있습니다. 본 세션에서는 AWS에서 S3를 활용하여 민첩하고 비용효율적인 Data Lake를 구축하는 방법을 소개합니다. 또한 이를 기반으로 AWS의 다양한 데이터 분석 서비스와 연동하는 법을 살펴봅니다.
대상 :
빅 데이터 및 데이터 분석 담당자, AWS 기반 데이터 분석에 관심 있는 모든 분
발표자 :
문종민 솔루션즈 아키텍트, AWS
아름답고 유연한 데이터 파이프라인 구축을 위한 Amazon Managed Workflow for Apache Airflow - 유다니엘 A...Amazon Web Services Korea
Apache Airflow는 복잡한 데이터 처리 파이프라인의 전체적인 프로세스를 자동화하기 위한 워크플로우 관리 플랫폼이며 오픈 소스 커뮤니티에서 활발하게 기여하고 있는 top-level 프로젝트 입니다. AWS는 최근에 Amazon Managed Workflow for Apache Airflow (MWAA) 서비스를 정식 출시하였고, 본 강연에서는 Apache Airflow 및 MWAA를 소개하고 어떻게 AWS 서비스와 연동하여 데이터 처리 워크플로우를 구축할 수 있는지 데모를 통해 알려 드립니다.
[AWS Builders 온라인 시리즈] AWS 서비스를 활용하여 파일 스토리지 빠르게 마이그레이션 하기 - 서지혜, AWS 솔루션즈 아키텍트Amazon Web Services Korea
발표자료 다시보기: https://www.youtube.com/watch?v=cw1kdghcQKo
이 세션에서는 AWS 하이브리드 스토리지 솔루션을 활용하여 파일 기반 비정형 스토리지를 AWS로 이동하는 방법에 대해 알아봅니다. AWS Storage Gateway, AWS DataSync 및 AWS SFTP (Secure file Transfer Protocol)에 대해 알아보고 여러분의 워크로드를 어떻게 구현 할 수 있는지 사례를 통해 알아봅니다.
Amazon SageMaker는 머신러닝 프로젝트를 위한 통합 플랫폼입니다. SageMaker의 기능 중 Amazon SageMaker Studio는 머신러닝 통합 개발환경을 제공하여, 데이터를 준비에서부터 모델을 빌드, 교육 및 배포하는 데 필요한 모든 단계를 수행할 수 있습니다. Amazon EMR은 Apache Spark, Apache Hive 및 Presto와 같은 오픈 소스 분석 프레임워크를 사용하여 대규모 분산 데이터 처리 작업, 대화형 SQL 쿼리 및 ML 애플리케이션을 실행하기 위한 빅 데이터 플랫폼입니다. 이 세션에서는 데이터 과학자와 ML 엔지니어가 ML 워크플로우에서 분산 빅 데이터 프레임워크를 쉽게 사용할 수 있도록 상호 서비스 간의 통합에 대하여 데모를 통해 알아봅니다.
This session is focused on diving into the AWS IAM policy categories to understand the differences, learn how the policy evaluation logic works, and go over some best practices. We will then walk through how to use permission boundaries to truly delegate administration in AWS.
데이터 분석플랫폼을 위한 데이터 전처리부터 시각화까지 한번에 보기 - 노인철 AWS 솔루션즈 아키텍트 :: AWS Summit Seoul ...Amazon Web Services Korea
기업의 비즈니스 혁신의 기반인 데이터 분석 플랫폼은 쉽고 빠르게 구축할 수 있는 방법이 요구됩니다. 이를 위해 본 강연에서는 데이터 전처리를 코드없이 사용자 친화적 유저 인터페이스(GUI)로 수행할 수 있는 AWS Glue DataBrew , 데이터 추출, 변환 및 저장(ETL)을 위한 서버리스 서비스인 AWS Glue Studio, 데이터 카탈로그에 대한 권한통제 방법, 데이터웨어하우스 구축을 위한 Amazon Redshift 의 기술을 소개하고 대규모 데이터웨어하우스(DW) 클러스터간 데이터 공유 방법과 코드없이 기계 학습을 수행할 수 있는 기능들을 알려드립니다.
Big Data Analytics Architectural Patterns and Best Practices (ANT201-R1) - AW...Amazon Web Services
In this session, we discuss architectural principles that helps simplify big data analytics.
We'll apply principles to various stages of big data processing: collect, store, process, analyze, and visualize. We'll disucss how to choose the right technology in each stage based on criteria such as data structure, query latency, cost, request rate, item size, data volume, durability, and so on.
Finally, we provide reference architectures, design patterns, and best practices for assembling these technologies to solve your big data problems at the right cost.
Amazon Kinesis provides services for you to work with streaming data on AWS. Learn how to load streaming data continuously and cost-effectively to Amazon S3 and Amazon Redshift using Amazon Kinesis Firehose without writing custom stream processing code. Get an introduction to building custom stream processing applications with Amazon Kinesis Streams for specialized needs.
최근 국내에도 글로벌 서비스나 급성장하는 웹 서비스를 쉽게 볼 수 있습니다. 초기에 RDBMS로 시작된 서비스들은 규모가 성장함에 따라 샤딩과 NoSQL의 선택의 기로에 서게 됩니다. Amazon DynamoDB는 모든 스케일에서 사용할 수 있는 완전 관리형 Key-Value NoSQL 데이터베이스이지만 여전히 Key Design은 가장 어려운 영역 중 하나입니다. 이 세션에서는 대규모 서비스의 키 디자인 방법을 알아봅니다.
Review of how AWS EC2 storage options have evolved, and making the right selection for your workload. Covering Amazon Elastic Block Storage, EBS and Amazon Elastic File System, EFS.
금융권 최신 AWS 도입 사례 총정리 – 신한 제주 은행, KB손해보험 사례를 중심으로 - 지성국 사업 개발 담당 이사, AWS / 정을용...Amazon Web Services Korea
금융권 최신 AWS 도입 사례 총정리 – 신한 제주 은행, KB손해보험 사례를 중심으로
지성국 사업 개발 담당 이사, AWS
정을용 수석, 신한 DS
노용헌 이사, 메가존
금융권 클라우드 규제 환경에서도 많은 고객들이 AWS를 사용하여 업무를 혁신하여 왔습니다. 크게 보면 새로운 사업에 AWS를 활용하여 혁신할 수 있는지와 기존 업무를 AWS로 신속하게 안전하게 이전하는 것으로 누누어 볼 수 있습니다. 첫 번째 사례로 신한 제주 은행 지니앱 개발 사례를 통하여 신한 DS가 비금융 앱인 "제주 지니" 프로젝트에 AWS기반 데브옵스 체계를 금융권 최초로 구축한 사례를 소개합니다. 단순히, Infra form factor만 클라우드를 활용하던 관행에서 벗어나 개발, 테스트, 스테이징, 배포 등 CI/CD 전 과정을 AWS상에서 자동으로 구현하는 과정을 통하여 기존 On premise 대비 AWS 클라우드의 장점 및 이를 통해 배운 점 등을 공유합니다. 다음으로는 해외 북미 법인 DC 전체를 AWS 로 All-in 마이그레이션을 통하여 운영중인 K 손해보험 사례를 공유합니다. K 손해보험의 미주법인은 새롭게 시행된 미국의 강력한 사이버 보안 정책이 23 NYCRR500을 준수하면서 On premise 환경보다 우월한 보안 요건을 준수하기 위하여 AWS 클라우드 검토하게 되었으며 AWS의 금융전문파트너인 메가존과 함께 뉴저지와 캘리포니아에 위치한 2개의 데이터센터를 모두 AWS 클라우드로 이관하는데 성공하였습니다. 약 6개월간 진행된 해당 프로젝트에 대한 사례소개 및 이를 통한 비용 절감의 효과를 공유해 드리며 현재도 계속 지원하고 있는 메가존의 AWS 클라우드 매니지드 서비스의 효과도 함께 전달 드립니다.
데이터 분석가를 위한 신규 분석 서비스 - 김기영, AWS 분석 솔루션즈 아키텍트 / 변규현, 당근마켓 소프트웨어 엔지니어 :: AWS r...Amazon Web Services Korea
AWS re:Invent에서는 다양한 고객들의 요구에 맞추어 새로운 분석 및 서버리스 서비스가 대거 출시되었습니다. 본 강연에서는 새롭게 출시된 핵심 분석 기능들과 함께, 누구나 손쉽게 사용할 수 있는 AWS의 분석 서버리스와 On-demand 기능들에 대한 심층적인 정보를 확인하실 수 있습니다.
[보험사를 위한 AWS Data Analytics Day] 5_KB금융그룹과 계열사의 AWS 기ᄇ...AWS Korea 금융산업팀
KB금융 그룹은 다양한 채널 서비스와 분석 플랫폼에 AWS클라우드를 활용하고 있습니다. 특히, KB카드는 AWS클라우드를 이용하여 대부분의 채널서비스를 AWS클라우드로 이관하였고, 연관된 분석플랫폼과 머신러닝 플랫폼을 AWS기반 클라우드로 구성하여 사용하고 있습니다. 이번 세션에서는 KB카드를 포함한 다양한 KB금융그룹 차원의 AWS클라우드내의 Analytics 구성 사례에 대해서 소개해 드리고자 합니다.
Module1 - Amazon Personalize 중심으로 살펴보는 추천 시스템의 원리와 구축
Module 2 - 추천 시스템을 위한 데이터 분석 시스템 구축 하기
Module 3 - E-Commerce 사이트를 보다 Smart 하게 만들기 (Amazon Comprehend & Fraud Detector)
EMR 플랫폼 기반의 Spark 워크로드 실행 최적화 방안 - 정세웅, AWS 솔루션즈 아키텍트:: AWS Summit Online Ko...Amazon Web Services Korea
발표영상 다시보기: https://youtu.be/hPvBst9TPlI
S3 기반의 데이터레이크에서 대량의 데이터 변환과 처리에 사용될 수 있는 가장 대표적인 솔루션이 Apache Spark 입니다. EMR 플랫폼 환경에서 쉽게 적용 가능한 Apache Spark의 성능 향상 팁을 소개합니다. 또한 데이터의 레코드 레벨 업데이트, 리소스 확장, 권한 관리 및 모니터링과 같은 다양한 데이터 워크로드 관리 최적화 방안을 함께 살펴봅니다.
모바일 퍼스트 시대에서 점점 더 고객과의 접점이 늘어나고 있습니다. 다양한 비금융 애플리케이션은 고객들의 수요에 탄력적으로 대응할 수 있는 시스템이 필요합니다. 본 강연에서는 AWS 위에서 최적의 솔루션을 구현하는 방안에 대해 공유합니다.
연사: 이창수 솔루션 아키텍트, 아마존 웹서비스
AWS 스토리지 마이그레이션 서비스 및 대규모 데이터 전송 사례- 김용기, AWS솔루션즈 아키텍트:: AWS Summit Online K...Amazon Web Services Korea
발표영상 다시보기: https://youtu.be/1TpgFbUa3fY
온라인 또는 오프라인 상황에서 고객 데이터를 클라우드로 전송할 수 있는 다양한 AWS 서비스에 대해 알아봅니다. 또한 스토리지 작업의 고질적인 이슈중 하나인 작은 파일이 많은 상황에서 이를 성공적으로 클라우드로 전송할 수 있었던 고객사례를 공유합니다.
2014년 5월 28일 일본에서 진행된 AWS 기술 웨비나의 발표 자료를 한국의 정윤진 솔루션스 아키텍트가 한글로 번역한 자료입니다. 웨비나 당시와 현재의 내용이 상이한 부분이 있을 수 있으니 자료 열람에 이 점 참고하시기 바라며, 혹 내용에 대한 문의사항이 있으신 경우 info-kr@amazon.com으로 연락 부탁드리겠습니다.
다시보기 영상 링크: https://youtu.be/hknvd5JucKU
데이터 저장소의 확장에 따라 규모에 맞게 데이터를 관리하는 것은 점점 더 어려워지고 있으며 데이터의 중요성은 지속적으로 올라가고 있습니다. 많은 데이터를 저장하고 활용하기 위해 올바른 저장매체를 선택하기 위해 AWS 에서 제공하는 여러 Storage 서비스들을 알아보고 각 서비스들의 장점과 사용 예를 함께 알아봅니다
원주율은 정말 모든 수를 담고 있을까. (Does pi have all positive numbers in it?)Joona Yoon
2017년 세미나 발표 자료
무한 원숭이 정리와 엮어본, 원주율 안의 모든 수
Does pi have all positive numbers in it? Let's see with Infinite Monkeys Theorem.
(주의) 14번 슬라이드부터는 (1-1/50)^6 이 아닌 1-(1/50)^6이 맞습니다.
7. • Amazon Kinesis Streams를 사용하면 특수 요구에 맞게 스트리밍 데이터를
처리 또는 분석하는 커스텀 애플리케이션을 구축할 수 있습니다.
• 수많은 소스에서 시간당 몇 테라바이트 규모의 데이터를 계속해서 캡처하고 저장할
수 있습니다.
그런 다음 Amazon Kinesis Streams의 데이터를 사용하여 실시간 대시보드를 지원하
고,
경보를 생성하며, 동적 요금 및 광고를 구현하는 애플리케이션을 구축할 수 있습니
• Kinesis Client Library(KCL), Apache Storm, Apache Spark Streaming을 비롯해서
원하는 스트림 처리 프레임워크를 사용할 수 있습니다.
AWS Kinesis Streams
8. • 생산자
• Amazon Kinesis Streams에 레코드를 넣습니다.
예를 들어, 스트림에 로그 데이터를 보내는 웹 서버가 생산자입니다.
• 소비자
• Amazon Kinesis Streams에서 레코드를 가져와 처리합니다.
이 소비자를 Amazon Kinesis Streams Application이라고 합니다.
• Amazon Kinesis Streams Application
• EC2 인스턴스의 플릿에서 공통적으로 실행되는 스트림의 소비자
• Kinesis Client Library 또는 Kinesis Streams API를 사용하여 개발할 수 있습니다.
AWS Kinesis Streams
18. Kinesis Streams Pricing
요금
샤드 시간(초당 1MB 수신, 초당 2MB 송신) $0.0185
PUT 페이로드 유닛, 1백만 개 유닛당 $0.0204
데이터 보존 기간 연장(최대 7일), 샤드 시간당 $0.0247
샤드 시간 = 샤드 1개 * 시간당 0.0185 * 24시간 = 0.444 USD / 1일
초당 50개의 레코드, 각 레코드가 20KB일 때 데이터 입력 속도: 1.0MB/초
PUT 페이로드 = 0.0204 * 하루 4,320,000개의 레코드 = 0.088 USD / 1일
= 하루에 0.532 USD = 약 600원
* 아시아 태평양(서울) 기준
* 24시간을 초과하여 보존 기간을 설정하면 스트림에 추가 요금이 적용
22. • 의미있는 정보 추출 가능
AWS Athena
count of user gent
popular page URL
23. Amazon QuickSight
• 쉽고 빠른 비즈니스 분석툴
• 다양한 데이터 셋에서 가져오기 가능
S3 Analytics, S3, Athena, RDS,
Redshift, MySQL, PostgreSQL, Aurora,
Spark 등 지원
(2017.12. US-West/Oregon 기준)