노후서버지만, 아직도 잘 쓰고 계신다구요?
새 장비로 교체하는 것이 당장의 도입비용 때문에 비싸보이지만, 3~5년만 지나면 40% 또는 그 이상의 비용절감 효과를 보실 수 있습니다.
그러니, 여러가지의 위험부담을 떠안고서 구세대 장비를 계속 사용하지 않으셔도 됩니다.
지금 연락주시면, 현재 장비와 새 장비의 총소유비용을 비교해드립니다!
문의전화: 02-3781-7900 (서버 연결)
[EN] Building modern data pipeline with Snowflake + DBT + Airflow.pdfChris Hoyean Song
I'm posting the slide presented at the Snowflake user group meet up.
NFT Bank has introduced DBT to rebuild and operate the entire data pipeline from scratch.
Data quality control and monitoring are critical as data is at the core of the company.
You can manage your numerous data validation tests in organized way. You can add one data validation test with just single line of yaml.
You can build the data catalog and data lineage docs if you just implement your data pipeline on top of DBT without big effort.
---
Session 1: Data Quality & Productivity
Data Quality
Data Quality Validation
Data Catalog, Lineage Documentation
DBT Introduction
Session 2: Integrate DBT with Airflow
DBT Cloud or Airflow?
Astronomer Cosmos
dbt deps
Session 3: Cost Optimization
Query Optimization
Cost Monitoring
Dell Technologies è un’esclusiva famiglia di aziende che offre alle organizzazioni l’infrastruttura necessaria per costruire il loro futuro digitale, favorire l’IT Transformation e proteggere le loro risorse più importanti: le informazioni.
In particolare per il settore dell’Education di livello superiore, Dell EMC ha studiato un catalogo di soluzioni in aree quali:
Converged Infrastructure
Storage e Protection dei dati
Servizi di didattica digitale
In questo ciclo di webinar illustreremo le soluzioni Dell EMC più all'avanguardia, attualmente oggetto di studio da parte della Fondazione CRUI per un possibile contratto in convenzione.
In this presentation, Reid Scrivener, Senior Business Planner at Microsoft, will provide an overview of the recently announced Azure Reserved VM Instances and Samir Mehra, Director of Product at CloudHealth Technologies, will discuss best practices for managing Azure Reserved VM Instances, including how to:
- Optimize your environment by rightsizing
- Plan and model out your purchases
- Continuously modify your Reserved VM Instances
- Monitor for new opportunities
[EN] Building modern data pipeline with Snowflake + DBT + Airflow.pdfChris Hoyean Song
I'm posting the slide presented at the Snowflake user group meet up.
NFT Bank has introduced DBT to rebuild and operate the entire data pipeline from scratch.
Data quality control and monitoring are critical as data is at the core of the company.
You can manage your numerous data validation tests in organized way. You can add one data validation test with just single line of yaml.
You can build the data catalog and data lineage docs if you just implement your data pipeline on top of DBT without big effort.
---
Session 1: Data Quality & Productivity
Data Quality
Data Quality Validation
Data Catalog, Lineage Documentation
DBT Introduction
Session 2: Integrate DBT with Airflow
DBT Cloud or Airflow?
Astronomer Cosmos
dbt deps
Session 3: Cost Optimization
Query Optimization
Cost Monitoring
Dell Technologies è un’esclusiva famiglia di aziende che offre alle organizzazioni l’infrastruttura necessaria per costruire il loro futuro digitale, favorire l’IT Transformation e proteggere le loro risorse più importanti: le informazioni.
In particolare per il settore dell’Education di livello superiore, Dell EMC ha studiato un catalogo di soluzioni in aree quali:
Converged Infrastructure
Storage e Protection dei dati
Servizi di didattica digitale
In questo ciclo di webinar illustreremo le soluzioni Dell EMC più all'avanguardia, attualmente oggetto di studio da parte della Fondazione CRUI per un possibile contratto in convenzione.
In this presentation, Reid Scrivener, Senior Business Planner at Microsoft, will provide an overview of the recently announced Azure Reserved VM Instances and Samir Mehra, Director of Product at CloudHealth Technologies, will discuss best practices for managing Azure Reserved VM Instances, including how to:
- Optimize your environment by rightsizing
- Plan and model out your purchases
- Continuously modify your Reserved VM Instances
- Monitor for new opportunities
Cloud DW technology trends and considerations for enterprises to apply snowflakeSANG WON PARK
올해 처음 오프라인으로 진행된 "한국 데이터 엔니지어 모임"에서 발표한 cloud dw와 snowflake라는 주제로 발표한 내용을 정리하여 공유함. (2022.07)
[ 발표 주제 ]
Cloud DW 기술 트렌드와 Snowflake 적용
- Modern Data Stack에서 Cloud DW의 역할
- 기존 Data Lake + DW와 무엇이 다른가?
- Data Engineer 관점에서 어떻게 사용하면 좋을까? (기능/성능/비용 측면의 장점/단점)
[ 주요 내용 ]
- 최근 많은 Data Engineer가 기존 기술 스택(Hadoop, Spark, DW 등)의 기술적/운영적 한계를 극복하기 위한 고민중.
- 특히 Cloud의 장점과 운영 및 성능을 고려한 Cloud DW(AWS Redshift, GCP BigQuery, DataBricks, Snowflake)를 고려
- 이 중 Snowflake를 실제 프로젝트에 적용한 경험과 기술적인 특징/장점/단점을 공유하고자 함.
작년부터 정부의 데이터 정책 변화와 Cloud 기반의 기술 변화 가속화로 기업의 데이터 환경에도 많은 변화가 발생하고 있고, 기업들은 이에 적응하기 위한 다양한 시도를 하고 있다.
그 중심에 cloud dw (또는 Lake house)가 위치하고 있으며, 이를 기반으로 통합 데이터 플랫폼으로의 아키텍처로 변화하고 있다. 하지만, 아직까지 기존 DW 제품과 주요 CSP(AWS, GCP, Azure)의 제품군을 다양하게 시도하고 있으나, 기대와 다르게 생각보나 낮은 성능 또는 비싼 사용료, 운영의 복잡성으로 인한 많은 시행착오를 거치고 있다.
이 상황에서 작년에 처음 검토한 snowflake의 다양한 기능들이 기업들의 고민과 문제를 상당부분 손쉽게 해결할 수 있다는 것을 확인할 수 있었고, 이를 이용하여 실제 많은 기업들에게 적용하기 위한 POC를 수행하거나, 실제 적용하는 프로젝트를 수행하게 되었다.
본 발표 내용은 이러한 경험을 기반으로 기업(그리고 실제 업무를 수행할 Data Engineer) 관점에서 snowflake가 어떻게 문제를 해결할 수 있는지 cloud dw를 도입/활용/확장 하는 단계별로 문제와 해결 방안을 중심으로 설명하였다.
https://blog.naver.com/freepsw?Redirect=Update&logNo=222815591918
Archive First: An Intelligent Data Archival Strategy, Part 1 of 3Hitachi Vantara
For many IT organizations there is simply too much file data to deal with. You may have some of the significant IT challenges, such as inadequate storage space, long backup and restore operations, limitations on available power and floor space, extended or even infinite retention periods, finding the right information in a timely manner, and more. The first step to controlling this file – or "unstructured" – data is intelligent archiving, which preserves access to data from its original location, and stores the data elsewhere. Storing that data in a platform that scales while consuming the least resources possible, protects and preserves data, makes it always available and easily accessible, and helps you extract value from previously "dark" data. View this webcast to learn how to: Reclaim or defer high performance storage purchases. Save more on all the costs of owning and maintaining growing content. Back up less data and reduce capacity needs. Set yourself up for what’s next. For more information on Archive first please read: http://www.hds.com/assets/pdf/hitachi-datasheet-archive-first.pdf
Introduction to Snowflake Datawarehouse and Architecture for Big data company. Centralized data management. Snowpipe and Copy into a command for data loading. Stream loading and Batch Processing.
IBM Cloud Pak for MCM Partner Add Ons Humio, SysDig, and TurbonomicLaura Naumann
Learn about the IBM Cloud Pak for Multicloud Management including integrations with Humio’s live streaming log management platform, as well as two other key Cloud Pak partners: Sysdig and Turbonomic.
Data Virtualization Reference Architectures: Correctly Architecting your Solu...Denodo
Correctly Architecting your Solutions for Analytical & Operational Uses reviews the two main types of use cases that can be solved with the Denodo Platform. Both high concurrency scenarios and big reporting use cases are discussed in this presentation in a comparative way, explaining the different approaches that you must take to be successful in any situation.
This presentation is part of the Fast Data Strategy Conference, and you can watch the video here goo.gl/wdZgpo.
sap hana|sap hana database| Introduction to sap hanaJames L. Lee
SAP HANA, sap hana implementation scenarios, sap hana deployment scenarios, SAP HANA Implementations, sap hana implementation and modeling, sap hana implementation cost, sap hana implementation partners, Applications based on SAP HANA, SAP HANA Databases.
Capgemini Cloud Assessment - A Pathway to Enterprise Cloud MigrationFloyd DCosta
Capgemini Cloud Assessment offers a methodology and a roadmap for Cloud migration to reduce decision risks, promote rapid user adoption and lower TCO of IT investments. It leverages pre-built accelerators such as ROI calculators, risk models and portfolio analyzers and provides three powerful deliverables in just six to eight weeks:
Denodo Data Virtualization Platform: Overview (session 1 from Architect to Ar...Denodo
This is the first in a series of five webinars that look 'under the covers' of Denodo's industry leading Data Virtualization Platform. The webinar will provide an overview of the architecture and key modules of the Denodo Platform - subsequent webinars in the series will take a deeper look at some of the key modules and capabilities of the platform, including performance, scalability, security, and so on.
More information and FREE registrations to this webinar: http://goo.gl/fLi2bC
To learn more click to this link: http://go.denodo.com/a2a
Join the conversation at #Architect2Architect
Agenda:
The Denodo Platform
Platform Architecture
Key Modules
Connectors
Data Services and APIs
When migrating applications to the AWS Cloud, it’s important to architect cloud environments that are efficient, secure, and compliant. Companies depend on critical enterprise applications to run their business. In this session, learn about the compute, storage, and networking services that AWS offers to help you build, run, and scale your business-critical applications more quickly, securely, and cost-efficiently. We also cover the AWS services and partners that are available to help you modernize and migrate your business-critical applications to the cloud.
SAP S/4HANA platform streamlines business processes: finance, procurement, production, logistics, sales, marketing, management of assets, and human resources. The solution is most applicable to enterprises in oil and gas, fuel and energy, transport and logistics, production, telecommunication, and financial sectors in USA. SAP S/4HANA platform integrates with IoT sensors, analyses Big Data, plans and predicts business processes in an online mode based on historical data.
We present our solution for building an AI Architecture that provides engineering teams the ability to leverage data to drive insight and help our customers solve their problems. We started with siloed data, entities that were described differently by each product, different formats, complicated security and access schemes, data spread over numerous locations and systems.
Cloud DW technology trends and considerations for enterprises to apply snowflakeSANG WON PARK
올해 처음 오프라인으로 진행된 "한국 데이터 엔니지어 모임"에서 발표한 cloud dw와 snowflake라는 주제로 발표한 내용을 정리하여 공유함. (2022.07)
[ 발표 주제 ]
Cloud DW 기술 트렌드와 Snowflake 적용
- Modern Data Stack에서 Cloud DW의 역할
- 기존 Data Lake + DW와 무엇이 다른가?
- Data Engineer 관점에서 어떻게 사용하면 좋을까? (기능/성능/비용 측면의 장점/단점)
[ 주요 내용 ]
- 최근 많은 Data Engineer가 기존 기술 스택(Hadoop, Spark, DW 등)의 기술적/운영적 한계를 극복하기 위한 고민중.
- 특히 Cloud의 장점과 운영 및 성능을 고려한 Cloud DW(AWS Redshift, GCP BigQuery, DataBricks, Snowflake)를 고려
- 이 중 Snowflake를 실제 프로젝트에 적용한 경험과 기술적인 특징/장점/단점을 공유하고자 함.
작년부터 정부의 데이터 정책 변화와 Cloud 기반의 기술 변화 가속화로 기업의 데이터 환경에도 많은 변화가 발생하고 있고, 기업들은 이에 적응하기 위한 다양한 시도를 하고 있다.
그 중심에 cloud dw (또는 Lake house)가 위치하고 있으며, 이를 기반으로 통합 데이터 플랫폼으로의 아키텍처로 변화하고 있다. 하지만, 아직까지 기존 DW 제품과 주요 CSP(AWS, GCP, Azure)의 제품군을 다양하게 시도하고 있으나, 기대와 다르게 생각보나 낮은 성능 또는 비싼 사용료, 운영의 복잡성으로 인한 많은 시행착오를 거치고 있다.
이 상황에서 작년에 처음 검토한 snowflake의 다양한 기능들이 기업들의 고민과 문제를 상당부분 손쉽게 해결할 수 있다는 것을 확인할 수 있었고, 이를 이용하여 실제 많은 기업들에게 적용하기 위한 POC를 수행하거나, 실제 적용하는 프로젝트를 수행하게 되었다.
본 발표 내용은 이러한 경험을 기반으로 기업(그리고 실제 업무를 수행할 Data Engineer) 관점에서 snowflake가 어떻게 문제를 해결할 수 있는지 cloud dw를 도입/활용/확장 하는 단계별로 문제와 해결 방안을 중심으로 설명하였다.
https://blog.naver.com/freepsw?Redirect=Update&logNo=222815591918
Archive First: An Intelligent Data Archival Strategy, Part 1 of 3Hitachi Vantara
For many IT organizations there is simply too much file data to deal with. You may have some of the significant IT challenges, such as inadequate storage space, long backup and restore operations, limitations on available power and floor space, extended or even infinite retention periods, finding the right information in a timely manner, and more. The first step to controlling this file – or "unstructured" – data is intelligent archiving, which preserves access to data from its original location, and stores the data elsewhere. Storing that data in a platform that scales while consuming the least resources possible, protects and preserves data, makes it always available and easily accessible, and helps you extract value from previously "dark" data. View this webcast to learn how to: Reclaim or defer high performance storage purchases. Save more on all the costs of owning and maintaining growing content. Back up less data and reduce capacity needs. Set yourself up for what’s next. For more information on Archive first please read: http://www.hds.com/assets/pdf/hitachi-datasheet-archive-first.pdf
Introduction to Snowflake Datawarehouse and Architecture for Big data company. Centralized data management. Snowpipe and Copy into a command for data loading. Stream loading and Batch Processing.
IBM Cloud Pak for MCM Partner Add Ons Humio, SysDig, and TurbonomicLaura Naumann
Learn about the IBM Cloud Pak for Multicloud Management including integrations with Humio’s live streaming log management platform, as well as two other key Cloud Pak partners: Sysdig and Turbonomic.
Data Virtualization Reference Architectures: Correctly Architecting your Solu...Denodo
Correctly Architecting your Solutions for Analytical & Operational Uses reviews the two main types of use cases that can be solved with the Denodo Platform. Both high concurrency scenarios and big reporting use cases are discussed in this presentation in a comparative way, explaining the different approaches that you must take to be successful in any situation.
This presentation is part of the Fast Data Strategy Conference, and you can watch the video here goo.gl/wdZgpo.
sap hana|sap hana database| Introduction to sap hanaJames L. Lee
SAP HANA, sap hana implementation scenarios, sap hana deployment scenarios, SAP HANA Implementations, sap hana implementation and modeling, sap hana implementation cost, sap hana implementation partners, Applications based on SAP HANA, SAP HANA Databases.
Capgemini Cloud Assessment - A Pathway to Enterprise Cloud MigrationFloyd DCosta
Capgemini Cloud Assessment offers a methodology and a roadmap for Cloud migration to reduce decision risks, promote rapid user adoption and lower TCO of IT investments. It leverages pre-built accelerators such as ROI calculators, risk models and portfolio analyzers and provides three powerful deliverables in just six to eight weeks:
Denodo Data Virtualization Platform: Overview (session 1 from Architect to Ar...Denodo
This is the first in a series of five webinars that look 'under the covers' of Denodo's industry leading Data Virtualization Platform. The webinar will provide an overview of the architecture and key modules of the Denodo Platform - subsequent webinars in the series will take a deeper look at some of the key modules and capabilities of the platform, including performance, scalability, security, and so on.
More information and FREE registrations to this webinar: http://goo.gl/fLi2bC
To learn more click to this link: http://go.denodo.com/a2a
Join the conversation at #Architect2Architect
Agenda:
The Denodo Platform
Platform Architecture
Key Modules
Connectors
Data Services and APIs
When migrating applications to the AWS Cloud, it’s important to architect cloud environments that are efficient, secure, and compliant. Companies depend on critical enterprise applications to run their business. In this session, learn about the compute, storage, and networking services that AWS offers to help you build, run, and scale your business-critical applications more quickly, securely, and cost-efficiently. We also cover the AWS services and partners that are available to help you modernize and migrate your business-critical applications to the cloud.
SAP S/4HANA platform streamlines business processes: finance, procurement, production, logistics, sales, marketing, management of assets, and human resources. The solution is most applicable to enterprises in oil and gas, fuel and energy, transport and logistics, production, telecommunication, and financial sectors in USA. SAP S/4HANA platform integrates with IoT sensors, analyses Big Data, plans and predicts business processes in an online mode based on historical data.
We present our solution for building an AI Architecture that provides engineering teams the ability to leverage data to drive insight and help our customers solve their problems. We started with siloed data, entities that were described differently by each product, different formats, complicated security and access schemes, data spread over numerous locations and systems.
더 빠른 게임시스템을 위하여 개선된 서비스들
김병수 솔루션즈 아키텍트, AWS
AWS의 모든 서비스들은 끊임없이 발전하고 개선되고 있습니다. 그런데 이러한 새로운 서비스들, 얼마나 빠른지, 과연 사용할때 얼마나 개선이 될수 있을지 궁금하지 않으신가요? 본 세션에서는 기존의 시스템에서 그대로 적용할 수 있는 AWS의 새로운 서비스와 기능을 중심으로 서비스 개선 부터 새롭게 선보이는 최적화된 시스템들까지, 다양한 개선점들과 이들을 사용할수 있는 최적의 조합을 살펴봅니다.
타 게임사의 경험으로 본 AWS 핵심 모범 사례 한방에 배우기 - 이정훈 솔루션즈 아키텍트, AWS / 김지선 테크니컬 어카운트 매니저, ...Amazon Web Services Korea
타 게임사의 경험으로 본 AWS 핵심 모범 사례 한방에 배우기
이정훈 솔루션즈 아키텍트, AWS
김지선 테크니컬 어카운트 매니저, AWS
AWS를 이용하여 많은 게임들이 서비스되고 있지만, 고객들이 예전 데이터센터의 경험을 이용하여 게임을 개발하고 운영하다 보니 종종 예기치 않은 기술 지원 요청을 하고 있습니다. 과거 게임 고객사들이 AWS 상에서 경험한 다양한 지원 요청을 분석하여 게임 서비스 아키텍처 및 운영 상에서 미리 대응할 수 있도록 경험을 공유합니다. 기술적인 내용 뿐만 아니라 동일 수준의 게임 서비스를 운영하면서도 비용을 최적화 할 수 있는 베스트 프랙티스도 소개합니다.
SK Telecom - 망관리 프로젝트 TANGO의 오픈소스 데이터베이스 전환 여정 - 발표자 : 박승전, Project Manager, ...Amazon Web Services Korea
SK Telecom의 망관리 프로젝트인 TANGO에서는 오라클을 기반으로 시스템을 구축하여 운영해 왔습니다. 하지만 늘어나는 사용자와 데이터로 인해 유연하고 비용 효율적인 인프라가 필요하게 되었고, 이에 클라우드 도입을 검토 및 실행에 옮기게 되었습니다. TANGO 프로젝트의 클라우드 도입을 위한 검토부터 준비, 실행 및 이를 통해 얻게 된 교훈과 향후 계획에 대해 소개합니다.
변화와 혁신을 위한 클라우드 마이그레이션 – 김진우 AWS 어카운트 매니저, 이아영 네오위즈 가버너스팀 팀장, 박주희 우아한형제들 시스템신...Amazon Web Services Korea
비즈니스 환경은 빠르게 진화하며, 고객들에게 같은 속도의 혁신을 요구하고 있습니다. 고객들은 클라우드를 통해 빠른 속도의 환경변화, Compliance, Software life cycle에 빠르게 적응하고, 더 나아가 새로운 비즈니스를 창출하고 있습니다. AWS 마이그레이션 사례를 통해 카멜레온처럼 진화하고 생존하는 방법을 알아봅니다.
Cloud dw benchmark using tpd-ds( Snowflake vs Redshift vs EMR Hive )SANG WON PARK
몇년 전부터 Data Architecture의 변화가 빠르게 진행되고 있고,
그 중 Cloud DW는 기존 Data Lake(Hadoop 기반)의 한계(성능, 비용, 운영 등)에 대한 대안으로 주목받으며,
많은 기업들이 이미 도입했거나, 도입을 검토하고 있다.
본 자료는 이러한 Cloud DW에 대해서 개념적으로 이해하고,
시장에 존재하는 다양한 Cloud DW 중에서 기업의 환경에 맞는 제품이 어떤 것인지 성능/비용 관점으로 비교했다.
- 왜기업들은 CloudDW에주목하는가?
- 시장에는어떤 제품들이 있는가?
- 우리Biz환경에서는 어떤 제품을 도입해야 하는가?
- CloudDW솔루션의 성능은?
- 기존DataLake(EMR)대비 성능은?
- 유사CloudDW(snowflake vs redshift) 대비성능은?
앞으로도 Data를 둘러싼 시장은 Cloud DW를 기반으로 ELT, Mata Mesh, Reverse ETL등 새로운 생테계가 급속하게 발전할 것이고,
이를 위한 데이터 엔지니어/데이터 아키텍트 관점의 기술적 검토와 고민이 필요할 것 같다.
https://blog.naver.com/freepsw/222654809552
Database Middleware(Driver)는 DB와 어플리케이션간의 데이터 처리를 위한 시스템
튜닝이 잘 되어 있는 데이터베이스와 어플리케이션에서 약 90%의 트랜잭션이 데이터베이스 미들웨어, 디스크 I/O, 네트워크에서 발생
데이터베이스 미들웨어가 전체 데이터베이스 어플리케이션에 매우 큰 영향을 미침
[Games on AWS 2019] AWS 사용자를 위한 만랩 달성 트랙 | Aurora로 게임 데이터베이스 레벨 업! - 김병수 AWS ...Amazon Web Services Korea
Amazon Aurora Database는 오픈소스의 개방성과 상용 데이터베이스의 성능과 안정성을 모두 제공하는 관리형 데이터베이스 서비스입니다. Amazon Aurora Database는 처음 소개된 이후로 계속 기능을 추가하며 진화해 왔습니다. Amazon Aurora의 성능과 새롭게 업데이트된 기능들을 게임사에 적용할 수 있는 사용 사례와 함께 소개합니다.
클라우드에서 인프라 구축 시 고려해야 할 사항들을 살펴보고, 네이버 클라우드 플랫폼을 활용하여 고가용성을 유지하는 방안에 대해 소개합니다. | Explore the considerations of building infrastructure in the cloud and introduce ways to maintain high availability by leveraging the Naver cloud platform.
Oracle DB를 AWS로 이관하는 방법들 - 서호석 클라우드 사업부/컨설팅팀 이사, 영우디지탈 :: AWS Summit Seoul 2021Amazon Web Services Korea
Oracle DBMS 는 국내 대기업에서 압도적으로 가장 많이 사용하는 DB 로, 이 세션에서는 Oracle DB 를 AWS 로 이관하는 방법들에 대하여 살펴보겠습니다. 환경에 따라 Oracle DB 를 이관하는 어떤 방법들이 있는지 알아보며, AWS DMS(Database Migration Service) 를 사용하여 효과적으로 이관할수 있는 방법을 소개합니다. Oracle DB 를 클라우드 환경으로 이관할 때 유의해야할 포인트들에 대해 함께 공유합니다.
현존하는 상용 서버 시스템 중에서 가장 안정적인 보안을 제공하는 LinuxONE을 소개 드립니다. IBM LinuxONE은 IBM의 하드웨어 기술역량을 집약한 리눅스 서버로서 핵심업무를 안정적으로 처리할 수 있는 높은 신뢰성을 제공합니다. 이러한 신뢰성을 기반으로 최근 국내 가상화폐거래소에 대규모 프로젝트를 진행중입니다. 자료를 통해 보시겠지만, LinuxOne의 특장점을 간략히 정리하여 드립니다.
1. 보안성 (Security)
- 상용 서버 중 EAL 5+ 인증을 획득한 전세계에서 유일한 서버입니다.
2. 안정성 (RAS)
- 전체 파트가 이중화로 설계되어 있으며, 장애 자동 복구 기능이 탑재되어 있습니다.
3. 유연성 (Flexibility)
- 다양한 형태로 가상화 파티셔닝이 가능합니다. (대규모 Scale up, 펌웨어 하이퍼바이저, 베이메탈 등)
4. 성능 및 민첩성 (Agility)
- 5.2GHz 속도의 프로세서 및 대용량 L1-L3캐시, 별도의 L4 캐시도 지원합니다.
[IBM 김상훈] 오브젝트스토리지 | 늘어만 가는 데이터 저장문제로 골 아프신가요? (자료를 다운로드하시면 고화질로 보실 수 있습니다.)(Joe), Sanghun Kim
안녕하십니까 IBM Korea 김상훈입니다.
폭증하는 데이터 시대, 비정형 데이터의 폭발적 증가로 저장하는데 고민이신가요? 계속 불어만 가는 데이터, 특히나 비정형 데이터에 탁월한 효과를 가진 IBM의 최적의 솔루션을 소개하고자 합니다.
오브젝트 스토리지는 테이프를 이용한 백업, 디스크에 데이터를 저장과 백업을 했던 기존의 방식보다 여러가지 장점을 가지고 있습니다. IBM 오브젝트 스토리지는,
1. 무한확장: 현재 보유한 데이터에서 계속 늘어나는 증가데이터까지 가능하며,
2. 비용절감: 기존 스토리지 대비 최대 70% 절감 가능
3. 운영편의성: 일반 서버 위에 소프트웨어로 구성하는 형태
4. 데이터 보안: 기존 방식보다 월등한 보안성
의 특징을 가집니다. 이메일과 함께 추가 설명이 담긴 링크도 함께 드리오니 확인해보시길 바랍니다.
더 이상 저장, 백업, 아카이브에 골 썩히지 마십시오. 고맙습니다.
- IBM 김상훈 드림
JoeKim@kr.ibm.com
02-3781-7900 (스토리지 연결)
[IBM 김상훈] 폭증하는 데이터 저장 문제로 고민이신가요? (자료를 다운로드하시면 고화질로 보실 수 있습니다.)(Joe), Sanghun Kim
안녕하십니까 IBM Korea 김상훈입니다.
폭증하는 데이터 시대, 비정형 데이터의 폭발적 증가로 저장하는데 고민이신가요? 계속 불어만 가는 데이터, 특히나 비정형 데이터에 탁월한 효과를 가진 IBM의 최적의 솔루션을 소개하고자 합니다.
오브젝트 스토리지는 테이프를 이용한 백업, 디스크에 데이터를 저장과 백업을 했던 기존의 방식보다 여러가지 장점을 가지고 있습니다. IBM 오브젝트 스토리지는,
1. 무한확장: 현재 보유한 데이터에서 계속 늘어나는 증가데이터까지 가능하며,
2. 비용절감: 기존 스토리지 대비 최대 70% 절감 가능
3. 운영편의성: 일반 서버 위에 소프트웨어로 구성하는 형태
4. 데이터 보안: 기존 방식보다 월등한 보안성
의 특징을 가집니다. 이메일과 함께 추가 설명이 담긴 링크도 함께 드리오니 확인해보시길 바랍니다.
더 이상 저장, 백업, 아카이브에 골 썩히지 마십시오. 고맙습니다.
- IBM 김상훈 드림
JoeKim@kr.ibm.com
02-3781-7900 (스토리지 연결)