Backend.AI (https://backend.ai)는 클라우드 및 온-프레미스 환경에서 여러 사용자가 안전하고 효율적으로 컴퓨팅 자원을 공유할 수 있는 머신러닝에 특화된 인프라 관리 프레임워크입니다. 현재 널리 사용되고 있는 오픈소스 기술인 OpenStack, Kubernetes 등과 비교하여 어떤 특징과 차이점이 있는지 소개하고, 프레임워크의 구조와 기반 기술 및 응용 사례를 데모와 함께 소개합니다.
Machine Learning Model Serving with Backend.AIJeongkyu Shin
머신러닝 모델을 서비스 단에서 서빙하는 것은 손이 많이 갑니다.
서비스 과정을 편리하게 하기 위하여 TensorFlow serving 등 서빙 과정을 돕는 다양한 도구들이 공개되고 개발되고 있습니다만, 여전히 서빙 과정은 귀찮고 불편합니다. 이 세션에서는 Backend.AI 와 TensorFlow serving을 이용하여 간단하게 TensorFlow 모델을 서빙하는 법에 대해 다루어 봅니다.
Backend.AI 서빙 모드를 소개하고, 여러 TF serving 모델 등을 Backend.AI 로 서비스하는 과정을 통해 실제로 사용하는 법을 알아봅니다.
Serving the machine learning model at the service level is a lot of work. A variety of tools are being developed and released to facilitate the process of serving. TensorFlow serving is the greatest one for serving now, but the docker image baking-based serving process is not easy, not flexible and controllable enough. In this session, I will discuss how to simplify the serving process of TensorFlow models by using Backend.AI and TensorFlow serving.
I will introduce the Backend.AI serving mode (on the trunk but will be official since 1.6). After that, I will demonstrate how to use the Backend.AI serving mode that conveniently provides various TensorFlow models with TensorFlow serving on the fly.
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
발표 영상 : https://goo.gl/jrKrvf
데모 영상 : https://youtu.be/exXD6wJLJ6s
Deep Q-Network, Double Q-learning, Dueling Network 등의 기술을 소개하며, hyperparameter, debugging, ensemble 등의 엔지니어링으로 성능을 끌어 올린 과정을 공유합니다.
Machine Learning Model Serving with Backend.AIJeongkyu Shin
머신러닝 모델을 서비스 단에서 서빙하는 것은 손이 많이 갑니다.
서비스 과정을 편리하게 하기 위하여 TensorFlow serving 등 서빙 과정을 돕는 다양한 도구들이 공개되고 개발되고 있습니다만, 여전히 서빙 과정은 귀찮고 불편합니다. 이 세션에서는 Backend.AI 와 TensorFlow serving을 이용하여 간단하게 TensorFlow 모델을 서빙하는 법에 대해 다루어 봅니다.
Backend.AI 서빙 모드를 소개하고, 여러 TF serving 모델 등을 Backend.AI 로 서비스하는 과정을 통해 실제로 사용하는 법을 알아봅니다.
Serving the machine learning model at the service level is a lot of work. A variety of tools are being developed and released to facilitate the process of serving. TensorFlow serving is the greatest one for serving now, but the docker image baking-based serving process is not easy, not flexible and controllable enough. In this session, I will discuss how to simplify the serving process of TensorFlow models by using Backend.AI and TensorFlow serving.
I will introduce the Backend.AI serving mode (on the trunk but will be official since 1.6). After that, I will demonstrate how to use the Backend.AI serving mode that conveniently provides various TensorFlow models with TensorFlow serving on the fly.
딥러닝과 강화 학습으로 나보다 잘하는 쿠키런 AI 구현하기 DEVIEW 2016Taehoon Kim
발표 영상 : https://goo.gl/jrKrvf
데모 영상 : https://youtu.be/exXD6wJLJ6s
Deep Q-Network, Double Q-learning, Dueling Network 등의 기술을 소개하며, hyperparameter, debugging, ensemble 등의 엔지니어링으로 성능을 끌어 올린 과정을 공유합니다.
EFK Stack이란 ElasticSearch, Fluentd, Kibana라는 오픈소스의 조합으로, 방대한 양의 데이터를 신속하고 실시간으로 수집/저장/분석/시각화 할 수 있는 솔루션입니다. 특히 컨테이너 환경에서 로그 수집을 위해 주로 사용되는 기술 스택입니다.
Elasitc Stack에 대한 소개와 EFK Stack 설치 방법에 대해 설명합니다.
Event-driven autoscaling through KEDA and Knative Integration | DevNation Tec...Red Hat Developers
This talk will teach you how to redesign an event-driven autoscaling architecture for cloud-native microservices by utilizing Apache Kafka, Knative, and KEDA infrastructure. You will also learn how to deploy serverless applications (Quarkus) using a Knative service. Finally, KEDA will enable you to autoscale Knative Eventing components (KafkaSource) through events consumption over standard resources (CPU, memory).
"Attention Is All You Need" (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, https://bit.ly/2y7yAD2 presented by Maroua Maachou (Veepee)
Just Model It 이벤트에서 사용할 Backend.AI 에 관한 소개입니다. Backend.AI의 개괄, 주요 기능 및 사용예들을 다룹니다. 또한 Backend.AI 를 이용한 End-to-end ML model 개발 시나리오도 소개합니다.
An Introduction to Backend.AI to use in Just Model It event. It covers the overview of Backend.AI, its main features and examples. It also introduces the scenario of developing end-to-end ML model using Backend.AI.
EFK Stack이란 ElasticSearch, Fluentd, Kibana라는 오픈소스의 조합으로, 방대한 양의 데이터를 신속하고 실시간으로 수집/저장/분석/시각화 할 수 있는 솔루션입니다. 특히 컨테이너 환경에서 로그 수집을 위해 주로 사용되는 기술 스택입니다.
Elasitc Stack에 대한 소개와 EFK Stack 설치 방법에 대해 설명합니다.
Event-driven autoscaling through KEDA and Knative Integration | DevNation Tec...Red Hat Developers
This talk will teach you how to redesign an event-driven autoscaling architecture for cloud-native microservices by utilizing Apache Kafka, Knative, and KEDA infrastructure. You will also learn how to deploy serverless applications (Quarkus) using a Knative service. Finally, KEDA will enable you to autoscale Knative Eventing components (KafkaSource) through events consumption over standard resources (CPU, memory).
"Attention Is All You Need" (Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, https://bit.ly/2y7yAD2 presented by Maroua Maachou (Veepee)
Just Model It 이벤트에서 사용할 Backend.AI 에 관한 소개입니다. Backend.AI의 개괄, 주요 기능 및 사용예들을 다룹니다. 또한 Backend.AI 를 이용한 End-to-end ML model 개발 시나리오도 소개합니다.
An Introduction to Backend.AI to use in Just Model It event. It covers the overview of Backend.AI, its main features and examples. It also introduces the scenario of developing end-to-end ML model using Backend.AI.
Lablupconf session8 "Paving the road to AI-powered world"Lablup Inc.
Lablup Conf 1st (Session4/Core)
"Paving the road to AI-powered world" - 김준기
- 발표내용
* Recap of Backend.AI history
* Future roadmap of Backend.AI for next 2 years
- 영상보러가기 : https://youtu.be/kAGSl99U0Bo
AWS re:Invent 행사는 총 5만여명이 참여하는 전 세계 최대 클라우드 컴퓨팅 컨퍼런스입니다. 클라우드 기술의 미래를 보여 줄 수 있는 새로운 AWS 서비스와 기능이 발표되고 개발자, 비지니스 기획 및 전략가 그리고 파트너들이 새로운 클라우드 기술에 대해 논의하고 공유하는 자리입니다.
본 온라인 세미나는 AWS re:Invent에 관심이 많으시지만 기회가 여의치 않아 참석하지 못하신 분들을 위해 준비하였으며, 새로 발표된 AWS 서비스와 기능을 소개함과 아울러 향후 클라우드 아키텍터를 구성하시는데 필요한 정보를 드리고자 합니다.
NetApp AI Control Plane for Kubernetes and Kubeflow
NetApp AI Data Control Plane for Kubernetes and Kubeflow
NetApp Trident and Python REST API for Kubernetes and Kubeflow
본 자료는 2017년 4월 6일 진행된 온라인 세미나 'RAD Studio 10.2 도쿄' 출시 세미나 자료입니다.
RAD Studio는 오브젝트 파스칼, C++ 중 원하는 언어를 선택해 단 하나의 코드베이스로 윈도우, 리눅스, 맥, 안드로이드, iOS 앱을 개발해 배포할 수 있는 개발툴입니다.
2017년 3월 출시된 새버전 '10.2 도쿄'에서는 최초의 LLVM 기반의 리눅스 컴파일러를 선보였습니다.
본 세미나 관련 자료는 다음 링크를 통해 확인할 수 있습니다.
http://tech.devgear.co.kr/delphi_news/431914
개발자를 위한 AWS re:Invent 신규 서비스 - 윤석찬 (AWS수석테크에반젤리스트) :: AWS Community Day 2020AWSKRUG - AWS한국사용자모임
AWS Community Day는 AWS를 사용하는 개발자 및 고급 사용자들이 주축이 되어 AWS 서비스 활용 방법 및 사용 대한 정보를 공유하는 기술 컨퍼런스입니다. 이번에는 지난 12월 미국 라스베가스에서 열린 AWS re:Invent 2019 행사에 직접 참여하셨던 분들이 꼽은 흥미로운 신규 서비스 소개와 아울러 인공지능, 서버리스, 컨테이너, 데브옵스 및 프론트엔드 분야의 다양한 애플리케이션 개발 및 구축 시, 개발자의 입장에서 AWS 클라우드 도입 및 활용 사례를 생생하게 전달해 드리는 시간이었습니다.
[오픈테크넷서밋2022] 국내 PaaS(Kubernetes) Best Practice 및 DevOps 환경 구축 사례.pdfOpen Source Consulting
최근 금융권이나 공공기관에서는 차세대 프로젝트에 PaaS 기반 시스템을 구축하고 그 위에 마이크로서비스아키텍처(MSA)를 구현하기 위해 많은 투자를 하고 있는데요, 많은 기업들이 오픈소스 기반의 인프라를 고려할 때 기술지원이나 버전 업그레이드 등에 대한 애로사항을 겪게 됩니다. 이런 문제에 대한 해결 방안 중 하나가 바로 커뮤니티 기반의 오픈소스 재단을 활용하는 것인데요!
본 자료에서 커뮤니티 오픈소스 기반 인프라 구축의 장점과 실제 사례에 대해 확인해 보실 수 있습니다.
[AWS Innovate 온라인 컨퍼런스] 수백만 사용자 대상 기계 학습 서비스를 위한 확장 비법 - 윤석찬, AWS 테크 에반젤리스트Amazon Web Services Korea
발표자료 다시보기: https://youtu.be/RYzviz-uOCU
기계 학습은 이제 개발자에게 필수 기술셋이 되었습니다. 본 세션에서는 AWS의 다양한 인공 지능 서비스를 활용하여 개발자들이 기계 학습을 처음 접하는 시점부터 혼자서 공부하는 방법부터 팀에서 초기 도입시, 그리고 정식 프로덕션 환경에서 수백만 사용자를 위한 서비스를 향해 가는 과정을 알려드림으로서 기계 학습 기반 개발자가 될 수 있는 방법을 알아봅니다.
Boosting machine learning workflow with TensorFlow 2.0Jeongkyu Shin
TensorFlow 2.0 is the latest release aimed at user convenience, API simplicity, and scalability across multiple platforms. In addition, TensorFlow 2.0, along with a variety of new projects in the TensorFlow ecosystem, TFX, TF-Agent, and TF federated, can help you quickly and easily create a wide variety of machine learning models in more environments. This talk will introduce TensorFlow 2.0 and discusses how to develop and optimize machine learning workflows based on TensorFlow 2.0 and projects within the various TensorFlow ecosystems.
This slide was presented at GDG DevFest Songdo on November 30, 2019.
올해 Google I/O에서는 구글의 머신러닝 및 딥러닝 분야에 대한 다양한 접근이 소개되었습니다. 이 발표에서는 Google I/O 2019에서 다룬 머신러닝 세션들을 크게 머신러닝 플랫폼, 머신러닝 클라우드 및 머신러닝 기반의 응용 서비스 확장으로 구분하고, 각각에 대하여 요약해 봅니다. 또한 현재의 발표를 바탕으로 이후의 방향성이 어떻게 될 것인지에 대하여 몇가지 예측을 해 봅니다.
이 슬라이드는 2019년 6월 Google I/O Extended 판교 및 서울에서 발표한 슬라이드입니다.
This talk covers the machine learning activities published during Google I/O.
머신러닝 및 데이터 과학 연구자를 위한 python 기반 컨테이너 분산처리 플랫폼 설계 및 개발Jeongkyu Shin
머신러닝 및 데이터 과학 분야의 컴퓨팅 수요는 해가 갈수록 급증하고 있습니다. 이와 더불어 분산처리 기술, 데이터 파이프라이닝 및 개발 환경 스택 관리 등의 관련된 다양한 이슈들 또한 엄청나게 늘어나고 있습니다. 머신러닝 모델의 기하급수적인 모델 복잡도 증가 추세와 마찬가지로, 모델 학습을 위한 환경 관리 또한 갈수록 복잡도가 높아지는 추세입니다.
이 세션에서는 이러한 문제를 해결하기 위해 python 언어 기반의 분산처리 스케쥴링/오케스트레이션 미들웨어 플랫폼을 개발한 4년간의 과정에서 겪은 다양한 문제들에 대해 다룹니다. 2015년 컨테이너 기반의 고밀도 분산처리 플랫폼 설계 및 프로토타이핑 과정을 PyCon KR에서 발표한 이후, 실제 구현 및 오픈소스화, 안정화를 거치며 겪은 다양한 기술적/비기술적 문제들에 대한 경험을 공유합니다.
기술적으로는 최근 몇 년 간의 클러스터 플랫폼 관련 기술의 진보와 함께 탄생한 다양한 도구들과, 이러한 도구들을 python 기반으로 엮어내기 위해 사용하고 개발한 다양한 오픈소스들을 다룹니다. Python 기반의 컨테이너 스케쥴링 및 오케스트레이션 과정의 구현과, 다양한 프로그래밍 언어로 만든 SDK를 graphQL을 이용하여 연동하는 과정에서의 몇몇 유의점을 설명합니다. 아울러 python 기반의 SDK를 다양한 언어로 포팅했던 경험을 간단하게 안내합니다.
플랫폼을 개발하는 중 등장한 TensorFlow, PyTorch 등의 다양한 머신러닝 프레임워크들을 도입하며 겪은 문제와 해결 과정에 대해서도 나눕니다. 연구 분야에는 Python 2.7 기반의 프레임워크들이 여전히 많습니다. 이러한 프레임워크 및 라이브러리의 지원을 위하여 Python 2 기반의 프레임워크와 Python 3.7로 구현한 컨테이너 인터페이스를 단일 컨테이너 환경에 중복 빌드 및 상호 간섭 없이 공존시키기 위해 개발한 아이디어를 소개합니다.
마지막으로 Python 기반의 프레임워크를 개발, 배포 및 상용화 하는 과정에서 겪은 다양한 어려움을 소개합니다. 솔루션을 배포 및 보급할 때 겪는 다양한 런타임, 하드웨어 환경 및 개인 정보 보호를 위한 폐쇄망 대상의 디플로이 등에 대응하기 위하여 Python 응용프로그램을 단독 실행용으로 패키징하는 과정에서 겪은 팁들을 설명합니다. 또한 GUI 빌드 및 Python, Go 및 C++을 함께 사용한 드라이버 가상화 레이어 개발 등의 내용도 살짝 다룹니다.
이 슬라이드는 PyCon KR 2019의 발표 슬라이드입니다. ( https://www.pycon.kr/program/talk-detail?id=138 )
2018년 8월 19일 PyCon KR 2018에서 오픈소스 교육과 Python을 주제로 발표한 내용입니다.
# 개요
오픈소스 및 오픈소스 개발 방법론은 현대 프로그래밍 개발 및 생태계에서 가장 중요한 축을 담당하고 있다. 전세계 유수의 IT 기업들은 거의 모두 오픈소스를 사용하며, 자체 결과물을 오픈소스로 공개하고 있다. 또한 윈도우 및 맥오에스, 리눅스 및 안드로이드를 비롯한 운영체제들 또한 오픈소스로 개발되거나 또는 오픈소스 커뮤니티 방법론을 이용해 테스트되고 있다.
최근 오픈소스 소프트웨어 및 개발 방법론은 과거 컴퓨터 언어 및 개발 과정과 큰 차잇점이 있다. 가장 큰 차잇점은 네트워크에 의해 가속화된 생태계의 속도이다. 최근 오픈소스 소프트웨어 생태계의 경우 개발 방법론, 기술, 라이브러리 및 프로젝트들이 등장하고 성숙하는 과정에 걸리는 시간이 기존 컴퓨터 생태계에 비해 굉장히 짧다. 따라서 오픈소스 참여 기술보다는 오픈소스 생태계 및 변화의 흐름을 이해하는 것이 더 중요해지고 있다. 따라서 일반적인 대학 교과과정의 타임 프레임을 적용하여 과목을 설계하기에는 무리가 있다.
이 세션에서는 오픈소스 소프트웨어 대학 교육 과정을 설계하고 2년간 강의하며 겪은 다양한 경험을 Python 언어를 중심으로 다룬다. Python은 초기 접근이 용이하여 21세기 초부터 많은 대학이 기초 프로그래밍 언어로 선택하고 있어, 오픈소스 소프트웨어 방법론 교과 과정의 주 언어로 선택하였다. 교과 과정이 지향하는 바는 프로그래밍과 오픈소스 문화 두가지이다. 이를 반영한 교육 과정 설계 시 주의한 점들과, 2년간의 경험 끝에 잘못 생각한 것으로 판단하게 된 몇가지에 대해 간단히 소개한다.
오픈소스 소프트웨어 교육 과정에서는 초반부 오픈소스의 역사, 문화에 대해 학습한 방법과, Python 기반의 오픈소스 프로젝트 진행 과정에서 경험한 다양한 사례 및 장단점에 대해 소개한다. 개발 과정에서는 GitHub을 이용한 협업, 오픈소스 소프트웨어를 무에서 시작하거나 포크해서 시작하는 과정, 공동 작업에서의 PEP 준수의 중요성, 컨트리뷰터,커미터,메인테이너 결정 및 운영과, 팀 내 충돌, 그리고 Code of Conduct를 만들었던 과정을 차례로 설명한다. 또한 배포 패키지 개발을 위해 pypi를 사용하고, manpage로 매뉴얼을 준비하는 과정 및 python 패키지 제작시 겪는 몇몇 허들에 대해서도 소개한다.
마지막으로 과정에서 동기 부여에 대해 고민한 여러 생각 및 경험과 함께, 수업 과정에서 사용한 오리지널 프로젝트 원저자와의 GitHub을 통한 소통 및 오픈소스 경험의 확장 과정을 소개한다.
오픈소스 및 오픈소스 개발 방법론은 현대 프로그래밍 개발 및 생태계의 핵심이 되었습니다. 전세계 유수의 IT 기업들은 거의 모두 오픈소스를 사용하며, 자체 결과물을 오픈소스로 공개하고 있습니다. 지금과 같이 거대 기업들이 오픈소스를 본격적으로 도입하고 공개하기 시작한 역사는 아직 그리 오래되지 않았습니다. 이 세션에서는 특허 및 저작권, 오픈소스의 정의, 오픈소스 저작권에 대한 설명, 오픈소스 저작권의 종류와 함께 오픈소스를 둘러싼 여러 사건 및 변화에 대해 알아봅니다.
이 발표는 2018년 4월 14일 서울에서 열린 TensorFlow Dev Summit Extended Seoul '18 에서 TensorFlow Dev Summit 2018의 발표 내용 중 TensorFlow.Data 및 TensorFlow.Hub에 관한 발표들을 정리한 내용입니다.
This presentation summarizes the talks about TensorFlow.Data and TensorFlow.Hub among the sessions of TensorFlow Dev Summit 2018, and presented at TensorFlow Dev Summit Extended Seoul '18 held on April 14, 2018 in Seoul.
2018년 2월 24일 KCD2018에서 Google Polymer에 대하여 발표한 내용입니다. 이 발표에서는 웹, 하이브리드 앱 및 프로그레시브 웹 앱 개발을 위한 구글의 웹컴포넌트 라이브러리인 폴리머를 쉽고 재미있게 다룹니다. 웹컴포넌트, 폴리머에 대한 소개와 함께 폴리머 2.0의 특징을 소개합니다. 또한 modulizer, TypeScript, yarn, webpack의 도입을 추진하고 있는 폴리머 3.0 알파 버전의 주요변화를 알아봅니다.
이 발표에서는 TensorFlow의 지난 1년을 간단하게 돌아보고, TensorFlow의 차기 로드맵에 따라 개발 및 도입될 예정인 여러 기능들을 소개합니다. 또한 2017년 및 2018년의 머신러닝 프레임워크 개발 트렌드와 방향에 대한 이야기도 함께 합니다.
In this talk, I look back the TensorFlow development over the past year. Then discusses the overall development direction of machine learning frameworks, with an introduction to features that will be added to TensorFlow later on.
Let Android dream electric sheep: Making emotion model for chat-bot with Pyth...Jeongkyu Shin
summary
Chatbot is the underlying technology of an interactive interface. One of the problems to be solved for popularization of chatbots is the unnaturalness of inhuman conversation. This presentation introduces the process of implementing emotion status reading based on Python 3 for human conversation implementation, and the experience of simulating the emotional state of the bot itself, with the demonstration. We also share the problems and solutions we encountered in implementing the emotional models.
개요
챗봇은 대화형 인터페이스의 기반 기술이다. 챗봇의 대중화를 위해 해결해야 할 문제중 하나는 비인간적 대화에서 오는 부자연스러움이다. 이 발표에서는 인간적인 대화 구현을 위하여 Python 3를 기반으로 감정 상태 읽기를 구현한 과정과, 봇 자체의 감정 상태를 시뮬레이션한 경험을 데모와 함께 소개한다. 또한 감정 모형을 구현하는 과정에서 만났던 문제들 및 해결 방법을 공유한다.
상세
챗봇은 대화형 인터페이스 및 음성 인식과의 결합을 통한 무입력 방식 인터페이스의 기반 기술이다. 챗봇은 고객상담 서비스 분야부터 온라인 구매, 디지털 어시스턴트 등의 다양한 분야에 널러 사용되며, 텍스트 기반의 메신저부터 음성 인식 기반의 스마트 스피커등의 인터페이스를 통해 빠르게 보급되고 있다. 이러한 챗봇의 대중화는 최근 머신러닝을 기반으로 한 자연어 처리 기술의 성능 향상과, 딥러닝 분야의 발전에 힘입어 가능해진 end-to-end 모델 구현에 기술적으로 큰 영향을 받았다.
챗봇이 응용되는 분야가 넓어지고 다양한 분야에서 챗봇 서비스 및 사업이 성장함에 따라 '불편한 골짜기 ' 라고 불리는 비인간적 대화에서 오는 피로 문제가 점차 대두되고 있다. 비인간적 대화가 가져오는 피로는 사용자 경험 및 이용 지속성에 영향을 크게 미친다. 따라서 이 문제는 대화형 디지털 어시스턴트의 대중화 과정에서 어렵지만 우선적으로 해결해야 할 과제들 중 하나가 되었다.
감정 모형은 비인간적 대화를 벗어나 자연스러운 대화를 구현하기 위한 몇 가지 방법 중 하나이다. 이 발표에서는 Python 3를 기반으로 감정 상태 읽기를 구현하고, 감정상태를 시뮬레이션하는 과정에 대한 경험과 접근 방법을 소개한다. Python의 NLTK 패키지를 이용하여 감정 사전 데이터를 생성한다. 그 다음 기존 대화 데이터를 Python 3 및 Pandas를 이용하여 초벌가공한다. 가공한 데이터를 이용하여 wordvec 공간을 정의한다. Wordvec 공간의 각 단어에 감정 데이터를 이용해 만든 태그를 붙여 적절한 위상 공간을 정의한다. 이후 실시간 대화에서 들어오는 단어들을 일정 단위로 입력하여, 현재 화자의 감정 상태 및 감정 변화를 추적한다. 이후 봇의 감정을 담당하는 기계학습 모형을 만들어 학습시키고, 봇의 현재 감정에 따라 답변 문장을 변경하거나 기타 인터페이스를 통해 어필하도록 구현한다. 최종적으로는 봇 인터페이스 및 재미있는 인터페이스 아이디어와 함께 묶어 대화를 시연한다.
이 과정에서 겪은 문제들 및 해결 방법을 함께 소개한다. 우선 NLTK 패키지를 기반으로 감정 사전을 만드는 과정과, 감정 사전 인덱스를 한국어에 맞게 커스텀하는 과정을 설명한다. 그리고 감정 상태를 정의한 공간에서 봇의 감정 변화가 실제 인간과 다르게 심하게 튀는 문제를 고려하는 방법을 설명한다. 다양한 문제들의 해결 방법과 함께, 실제 서비스를 위해 멀티 모드 모델 체인에 컨텍스트 엔진 및 대화 엔진과 감정 모형을 연결하는 과정을 재미있는 데모와 함께 공유하고자 한다.
구글의 머신러닝 비전: TPU부터 모바일까지 (Google I/O Extended Seoul 2017)
이 발표에서는 구글의 머신러닝 분야에 대한 접근 분야, 방법 및 목표를 구글 I/O 2017의 세션 발표들을 통해 알아봅니다.
From TPU to Mobile: Google's Machine Learning Vision
In this presentation, I will cover about the approaches, methods and goals of Google's machine learning area through the sessions of Google I/O 2017.
기술 관심 갖기: 스타트업 기술 101 (Interested in Tech?: Startup Technology 101)Jeongkyu Shin
기술적 배경이 없는 창업자가 기술이 필요한 창업을 하려고 할 때 중요한 내용은 무엇일까요? 스타트업에 필요한 기술들과, 창업시 고민할 방향을 안내합니다.
2017년 4월 27일 구글캠퍼스 서울의 Campus For Moms 에서 발표한 슬라이드입니다.
What is important when a founder who does not have a technical background wants to start a business that requires technology? It introduces the technologies necessary for start-up, and directions to worry when starting a business.
This slide is for invited talk of Campus For Moms on April 27, 2017 at Google Campus Seoul.
4. 문제 의식: 왜 이렇게 힘들어?
• 오픈소스와 클라우드의 발달 – 정말로 AI 하기가 쉬워졌을까?
http://kr.vonvon.me/quiz/329,
http://kr.vonvon.me/quiz/1633
(사실은 삽질 삽질 삽질
삽질 삽질을... 으어어)
일단 오픈소스
한컵 붓고..
클라우드 살짝 얹고..
딥러닝을 잘 부으면...
다 되는 건가?
신이 AI 분야를 만들 때
6. 우리에게 필요한 것
쉽게
– 원래 사용하던 방식과 같도록
– 최소한의 환경설정만으로
빠르게
– GPU를 잘 활용할 수 있도록
– 원하는 만큼 연산자원을 바로바로
값싸게
– 사용한 만큼만 지불하도록
– 비용 제한에 맞춰 성능 조정을 자동으로
어디서나
– 내가 가진 서버를 지금 바로 활용하거나
– 이도저도 귀찮다면 클라우드에 맡겨서
함께
– 한번 만들면 누구나 똑같이 재현하고 재사용하도록
– 다른 사람들과 충돌 없이 자원을 공유할 수 있도록
7. Backend.AI 목표
쉽게
– 원래 사용하던 방식과 같도록
– 최소한의 환경설정만으로
빠르게
– GPU를 잘 활용할 수 있도록
– 원하는 만큼 연산자원을 바로바로
값싸게
– 사용한 만큼만 지불하도록
– 비용 제한에 맞춰 성능 조정을 자동으로
어디서나
– 내가 가진 서버를 지금 바로 활용하거나
– 이도저도 귀찮다면 클라우드에 맡겨서
함께
– 한번 만들면 누구나 똑같이 재현하고 재사용하도록
– 다른 사람들과 충돌 없이 자원을 공유할 수 있도록
쉽게
– Jupyter, Visual Studio Code, IntelliJ,
Atom 플러그인 제공
– API key만 설정하면 끝!
빠르게
– 컨테이너와 GPU 기술을 결합
– 1초 이내에 연산 세션이 뜨도록
값싸게
– 밀리초/KiB 단위까지 정밀한 자원 사용 측정
– (향후 지원 예정!)
어디서나
– 오픈소스 버전 제공 (www.backend.ai)
– 클라우드 버전 제공 (cloud.backend.ai)
함께
– 컨테이너를 활용한 언어별·버전별 가상 환경 제공
– 시스템콜 샌드박싱 + Docker의 자원제한 고도화
8. Backend.AI 개념도
클라우드 인프라 (IaaS)
Backend.AI 플랫폼
응용 서비스 및 애플리케이션
모니터링
버전관리
자원할당언어별 SDK
보안격리오토스케일링
개인·조직 사용자
import tensorflow as tf
import matplotlib
v1 = tf.Variable(…, name="v1")
v2 = tf.Variable(…, name="v2")
...
plot(...)
웹 서비스
모바일 및
IoT 장비
클라우드 서비스
기계학습 및 과학연산 코드
실행 결과
REST/GraphQL
API
온-프레미스 클러스터
9. Backend.AI 포지셔닝
Backend.AI
개발자를 위한
사용자 인터페이스
GPU를 활용하는
다양한 도구
가상화 솔루션
및 클라우드 서비스
오케스트레이션 계층
▪ 보안 격리된 컨테이너 기반 가상화로
서버 수준 고밀도 자원 공유
▪ 오토스케일링 및 컨테이너 버전 관리
▪ 컨테이너와 GPU 연결 기능 제공
▪ 사전 정의된 목적 특화 컨테이너 제공
▪ 사용자별 자원 사용량 추적
▪ Jupyter, VSCode, Atom, CLI/IDE 등
다양한 사용자 개발환경 플러그인 지원
▪ 완전관리형 클라우드 / 설치형 오픈소스
쉽게
빠르게
값싸게
어디서나
함께
5대 핵심목표
10. Backend.AI 컴포넌트 구성도
Backend.AI Manager
Backend.AI Agent
Scaling Group Scaling Group
Backend.AI Agent
Backend.AI Agent
Backend.AI Agent
Backend.AI Agent
Backend.AI Client
Kernel Kernel
Kernel
Kernel Kernel
Kernel
Kernel
VFolder
Storage
Session DB
User DB
Config
Server
11. Backend.AI 사용 시나리오
GPU가 없는 랩탑을 들고다니며 딥러닝 AI를 개발하고 싶을 때
사내 고성능 GPU 서버 1대를 여러 연구원이 공유하면서 쓰고 싶을 때
망분리 적용된 사내 GPU 서버를 조직 단위로 유연하게 공유하고 싶을 때
갖고다닐 개인 랩탑에
Backend.AI Client 설치
자신의 GPU 워크스테이션을
cloud.backend.ai에 등록 또는
클라우드 요금제 구입
각 연구원 PC에
Backend.AI Client 설치
사내 서버에 Backend.AI 설치
(오픈소스 버전 무료 사용 가능)
각 연구원 PC에
Backend.AI Client 설치
사내 서버에 Backend.AI 설치
(엔터프라이즈 구입 후 오프라인 설치,
SSO 연동, 보안 로깅 추가기능 사용)
12. Backend.AI
• 다양한 기계학습 라이브러리 지원
– TensorFlow, PyTorch, Caffe 등
• 여러 버전의 라이브러리 동시 지원
– 예) TensorFlow 1.2~1.8을 동일 서버팜에서 동시 운영 지원
– 예) PyTorch와 TensorFlow를 간섭 없이 동일 팜에서 지원
• 기계학습 라이브러리 자동 업데이트 지원
• CPU / GPU / RAM 동적 할당
– 훈련마다 다른 연산 자원 할당 지원
✓ 예) 4CPU + 2GPU + 64GB
– 멀티 GPU 지원
– GPU 램 파티셔닝 지원 (TensorFlow)
• GPU 지원
– Nvidia CUDA 기반 가속 (TensorFlow / PyTorch+Caffe)
– AMD ROCm 기반 가속 (TensorFlow) *
기계학습 모델을 훈련하고
실행하는 모든 과정을
클라우드 또는 자신의 서버에서
엄청나게 쉽고 빠르게 돌려주는
세련된 플랫폼
*베타 테스트 중
13. Backend.AI
• 온라인 모델 사용 (1.4*)
– use.backend.AI 기반의 모델 서빙
– 함수처럼 딥러닝 모델 사용
– Backend.AI SDK를 통한 다양한 언어 지원
✓ Python / JAVABETA / Node.js / JavaScript
(on browser) / Microsoft Excel / PHPBETA
• 개발한 모델의 서빙 지원 (1.5⍿)
– 직접 개발한 모델의 서빙 지원
– 기존 모델의 데이터 기반 커스텀 트레이닝 지원
기계학습 모델을 훈련하고
실행하는 모든 과정을
클라우드 또는 자신의 서버에서
엄청나게 쉽고 빠르게 돌려주는
세련된 플랫폼
*베타 테스트 중 (2018년 상반기)
⍿ 개발중 (2018년 하반기)
14. Backend.AI
• 온프레미스 서버 설치
– 물리 서버 및 VM 설치 모두 지원
– OpenStack 설치 지원*
• 다양한 클라우드 지원
– Amazon, Microsoft, Google 클라우드 지원
• 이기종 클라우드 통합 지원
– 예) Amazon + Microsoft
– 예) On-premise + Amazon
– 클라우드 통합을 위한 편의 지원
기계학습 모델을 훈련하고
실행하는 모든 과정을
클라우드 또는 자신의 서버에서
엄청나게 쉽고 빠르게 돌려주는
세련된 플랫폼
*베타 테스트 중
15. Backend.AI
• 연구자 및 개발자를 위한 IDE 통합
– IntelliJ IDEA (PyCharm 포함), Visual Studio
Code, ATOM editor, Jupyter Notebook 통합
– TensorBoard 등의 모니터링 툴 설치 및 접근 지원
• 프로토타이핑 스케일링 시나리오
– 로컬에서 테스트 후 스케일
– 모든 워크로드를 서버에서
• 확장을 위한 Backend.AI SDK
– Python 3 / Node.js / JAVA / PHP SDK 지원
기계학습 모델을 훈련하고
실행하는 모든 과정을
클라우드 또는 자신의 서버에서
엄청나게 쉽고 빠르게 돌려주는
세련된 플랫폼
16. Backend.AI
• API 기반
– 완전한 문서 지원 (영어)
– 온/오프라인 컴포넌트 설치
✓ pip / npm / composer 기반의 설치 지원
– 오픈소스 생태계
• 완전 비동기 I/O 기반의 코드
– 짧은 지연시간
– 각 컴포넌트 동작의 독립성 향상
• 모던 언어 및 컨테이너 환경 기반
– Python 3.6 + aiodocker
– Docker 기반의 컨테이너 가상화
기계학습 모델을 훈련하고
실행하는 모든 과정을
클라우드 또는 자신의 서버에서
엄청나게 쉽고 빠르게 돌려주는
세련된 플랫폼
17. Backend.AI 작동 예시
import tensorflow as tf
hello = tf.constant('Hello, TensorFlow!')
sess = tf.Session()
print(sess.run(hello))
자신의 컴퓨터에는 개발환경이 없음
Backend.AI Cloud를 통해 실행하면 OK!
실행하고자 하는 소스 코드
18. Backend.AI 플랫폼
Cloud
Cloud Pay-as-you-go
OpenSource
Ground
Bring Your
Own Hardware
Examples
Services
Garden Showcases
계산 기반의 과학·공학
연구, 딥러닝 모델 훈련
및 엄청나게 간편한 코딩
환경을 구축하는
Scalable PaaS
자신만의 Backend.AI
서버팜을 설치하고
수정하고 개발할 수 있는
오픈소스 버전
Backend.AI 및
Lablup.AI 통합 솔루션
사용자들을 위한 문서,
포럼 및 쇼케이스들
Backend.AI codeonweb.com
19. Backend.AI 오픈소스
• Backend.AI Ground
– 오픈소스 (코어 + 라이브러리 + 플러그인)
– 설치형 소프트웨어 / 프레임워크
– 듀얼 라이센스 채택
✓ 비상업용: LGPLv3
✓ 상업용: 별도 commercial license 및 사용 계약
• Backend.AI Cloud
– Backend.AI Ground 기반으로 Lablup에서 직접 운영하는 클라우드
• Backend.AI Enterprise
– 상업 용도의 별도 계약에 따른 엔터프라이즈 솔루션
– 온프레미스 / 서포트 플랜
20. Backend.AI 프로젝트
• https://github.com/lablup/backend.ai
– 2016년 11월 v0.1 릴리즈
– 2017년 10월 v1.0 릴리즈
✓ 개발 매뉴얼 제공
– 2018년 1월 v1.1 / 2월 v1.2 / 3월 v1.3 릴리즈
✓ 코드 안정화
✓ 설치 매뉴얼 및 싱글 클러스터용 자동 설치 지원
✓ 플러그인 아키텍처 도입
• 향후 로드맵
– 스케줄러 기능 강화
– 대규모 HPC 클러스터 오케스트레이션 기능 강화
– VPN 없는 다중 클라우드 연결을 통한 쉬운 Hybrid cloud 및 on-premise 연동
– 오토스케일링 기능 강화
✓ 장시간 연산 세션을 위한 scale-in protection
✓ cpu/memory/gpu slot 여유 용량에 따라 cold/hot instance group 운영
21. Backend.AI 상세
>_
Backend.AI Client SDK
for Python
HTTPS
WebSocket /
REST / GraphQL
ZeroMQ
etcdRedisPostgreSQL
(private protocols)
Backend.AI Client SDK
for Javascript
Tensor
Flow
Backend.AI Jail
R
Backend.AI Jail
Docker
User data files
Cloud Storage
Backend.AI AgentBackend.AI Manager
https://api.backend.ai
▪ 실시간 터미널 접속
▪ Query / batch / streaming mode
▪ 사용량 및 세션 상태 조회
▪ 멀티미디어 출력 렌더링
▪ 사용자 세션 인증
▪ 실시간 세션별 자원 사용량 통계
▪ 자동 rolling upgrade
▪ 프로그래밍할 수 있는 시스템콜 샌드박스
▪ 코어 개수, 메모리 등 컨테이너 자원 제한
▪ 사용자별 가상폴더
▪ 공유·예제 dataset 제공
▪ 코드 실행 요청 routing
▪ 입출력 중계
▪ Agent auto-scaling
▪ Hybrid cloud 지원
22. Backend.AI: 개발, 확장, 통합
Backend.AI Server
Backend.AI Client SDK
Python
Backend.AI Client SDK
Javascript
Backend.AI Client SDK
Java
Backend.AI
CLI
Backend.AI
ATOM editor Plugin
Backend.AI
Visual Studio Code Extension
Backend.AI
Jupyter Notebook Integration
Backend.AI
IntelliJ Plugin
Backend.AI Client SDK
PHP
거의 모든 컴포넌트를 오픈소스로 공개
(backend.AI 클라우드 서비스 및 엔터프라이즈 솔루션 부분만 제외)
23. Backend.AI Server
Backend.AI Client SDK
Python
Backend.AI Client SDK
Javascript
Backend.AI Client SDK
Java
Backend.AI
CLI
Backend.AI
ATOM editor Plugin
Backend.AI
Visual Studio Code Extension
Backend.AI
Jupyter Notebook Integration
Backend.AI
IntelliJ Plugin
Backend.AI Client SDK
PHP
The only All-in-one framework for
Machine Learning Training PaaS
Backend.AI Agent
AWS
Backend.AI Agent
Azure
Backend.AI Agent
GCP
Backend.AI Agent
On-premise
Backend.AI:
Backend.AI: 하이퍼 클라우드
27. Backend.AI 주요 기능
• 빠른 시작
– 클라우드 가입만으로 바로 사용 가능
– 사용자의 요청 즉시 가상 프로그래밍 환경 생성
• 다양한 요구사항 충족
– 모든 주요 프로그래밍 언어와 런타임 지원
Python, R, Julia, Octave, PHP, Go, C/C++, Java, NodeJS, Lua, Haskell, Rust
– 동일한 기계학습 라이브러리의 여러 버전 동시 지원
TensorFlow, Caffe, PyTorch, Keras
• 친숙한 사용자 경험 + 개발자 친화적 프레임워크
– 기존 연구·개발자들에게 익숙한 환경과의 통합 지원 (코드편집기, 웹기반 연구노트)
Jupyter Notebook, Visual Studio Code, Atom Editor, IntelliJ beta
– $ backend.ai run 명령줄 및 클라우드 인터프리터·컴파일러 지원
– 개발자를 위한 HTTP 기반 공용 API 및 언어별 SDK 제공
Python, Javascript (Node.js), JAVA beta ,PHP beta
28. 지원 프로그래밍 언어
• 현재
– Python 3, R, PHP 5/7, node.js, JavaScript, Julia, Lua, Octave, Go, C/C++, Rust, Java, Haskell
– 딥러닝 환경: TensorFlow, PyTorch, Keras, Caffe
• 테스트중
– Swift, TypeScript, C# (.NET Core)
29. 기술적 강점
• Backend.AI Cloud / Open Source
– API 중심 구현
✓ API 기반으로 확장가능하고 스케일러블하며 재사용가능하고 타 솔루션과 유연하게 결합 가능
– 다양한 프로그래밍 언어 지원
✓ 다양한 프로그래밍 언어 및 환경을 지원하므로 거의 모든 사용 사례 지원
• 머신러닝용 컨테이너 관련 기술들을 단일 프레임웍으로 제공하는 유일한 솔루션
– 짧은 지연시간과 고밀도의 컨테이너 풀링
✓ 스케일시 초단위의 컨테이너 스포닝
– 멀티테넌트 환경에서의 GPU 가속 지원
✓ Faster native GPU performance compared to VM-based solutions
– 동적 샌드박싱: 프로그래밍 및 재작성 가능한 syscall 필터
✓ Apparmor/seccomp 등 대비 풍부한 프로그래밍 가능한 정책 지원
– Docker 기반의 레거시 앱 리소스 제한
✓ 예) 현재 Docker의 경우 다양한 머신러닝 컴포넌트들의 CPU 코어 제한을 강제할 수 없음 (OpenBLAS
(matrix calculation library) 등).
30. Backend.AI와 기존 유사 오픈소스 비교
• 기존 오픈소스 구현체들의 한계 해결
– 특정 프로그래밍 언어 지원 → 범용 언어 지원
– REPL 구현체들의 취약한 보안 → 보안 중심의 원천적 설계로 실서비스 구축이 가능
– 기계학습 개발자를 위한 편의 기능 제공 (가상폴더 등)
– 연산 가속을 위한 보조프로세서 지원 (GPU, TPU, ROCm 등)
– 연산에 필요한 자원의 자동 스케일링
– 온디맨드 대규모 코드 연산 기능 제공
31. Backend.AI 의 특징 비교 (1/2)
• vs. Anaconda Cluster
– Anaconda Cluster는 고정된 수의 서버를 가진 클러스터에 ssh 기반으로 각종 데이터 분석용
Python/Java 프로그램들을 자동 설치하고 마스터 서버를 통해 통합 실행하는 기능 제공
– Backend.AI는 클라우드 기반의 서버 자동 스케일링과 컨테이너 기반의 보안 격리된 실행 환경을
제공하여 여러 사용자가 클러스터뿐만 아니라 서버 수준에서도 고밀도 자원 공유 가능
• vs. Google Colaboratory / AWS SageMaker / Azure MLStudio / 각종 MLaaS
– 클라우드 플랫폼 기반의 관리형 기계학습 실습 환경 제공
– Backend.AI는 자신의 서버나 벤더 상관 없이 자가 소유한 클라우드 인프라에 직접 설치 가능함
32. Backend.AI 의 특징 비교 (2/2)
• vs. Kubernetes (Google Borg) / Apache Mesos / Apache Aurora
– Mesos와 k8s 모두 클러스터 자원 할당 및 관리를 위해 일반화된 오픈소스 솔루션
– Aurora는 Mesos를 기반으로 service 및 job pipeline 관리 추가 제공
– Backend.AI는 머신러닝 개발자들을 위해 특화되어 가상폴더, AI 프레임워크 버전 관리를 지원하고
오토스케일링 등 클라우드 환경에 적합한 기능을 추가 제공함
• vs. Ansible / Chef / Puppet / Terraform / ...
– 대규모 서버 및 컨테이너를 프로비저닝하고 인프라 구성을 코드화하여 관리할 수 있는 DevOps용 도구
– Backend.AI는 이런 기술들을 종합적으로 활용하여, 기계학습 개발자들이 인프라에 대한 고민을 하지
않도록 한 단계 더 감싸주는 역할을 함
33. Backend.AI 트리비아
• 첫 버전 발표: 2015년 8월 (PyCon KR)
• 첫 공개 테스트 버전 배포: 2016년 11월
• 첫 정식 버전 배포: 2017년 11월
• 클라우드 등록 사용자 : ~9000명
• 실사용 기업, 연구소 및 대학: 5
• Backend.AI가 지원하는 가장 작은 단일 노드: 라즈베리 파이 3
• Backend.AI가 지원하는 가장 큰 단일 노드: NVidia DGX-1
• 단일 Backend.AI 클러스터가 동시 지원하는 노드 수: 2000 노드
• 멀티 Backend.AI 클러스터가 동시 관리하는 노드 수: 62500 노드
• Backend.AI 설치를 지원하는 클라우드 환경: Amazon Web Service, Google Cloud
Computing, Microsoft Azure 및 OpenStack
34. Backend.AI 기술 현황 / 로드맵
기술 특징
nvidia-
docker
Docker
Swarm
OpenStack Kubernetes
Apache
Mesos
Backend.AI
(현재)
Backend.AI
(목표)
GPU Support
GPU Assignment &
Isolation
Heterogeneous
Accelerators
Partial GPU Sharing
Security
Sandboxing via
Hypervisor/Container
Programmable
Sandboxing
Virtualization
VM (Hypervisor)
Docker Container
Scheduling
Availability-slot based
Advanced
Integration
Modern AI
Farmeworks
*
* TensorFlow 프레임워크에 한하여 기술 테스트 완료
** VM 관리를 직접 수행하지 않고 클라우드 벤더 API 또는 OpenStack에 의존
*** slot 기반이긴 하지만 label 기능으로 상세한 사용자화 가능
***
**** ****
35. Backend.AI 다중 클라우드 구성 사례
Web Frontend
Backend.AI Manager
api.backend.ai
Backend.AI Agent Pool
CPU Agents
RDS
S3
Devs.
WebApp
lablup.ai
CPU Agents
GPU/TPU Agents
GeoFront Gateway
Backend.AI Agent Pool Backend.AI Agent Pool
Backend.AI VPN Gateway
CPU Agents
GPU Agents
Azure FileShare
S3 EFS ECS
cloud.backend.ai
codeonweb.com
use.backend.ai
Cloud
Front
36. Backend.AI 응용 예시
• GPU 클라우드 서비스의 손쉬운 구축
– 국산 공개SW 기반 기술인 Backend.AI를 활용한 GPU 클라우드 사업화 가능
• 의료기관 및 금융기관 등 고도보안 망분리 환경에서의 사설 GPU 클라우드 구축
– (엔터프라이즈 에디션) 오프라인 설치, SSO, 보안로깅 등 추가 지원
• 직접 보유한 GPU 서버팜의 용량이 부족할 때 cloud.backend.ai로 동적 용량 확장
– 또는 반대로 cloud.backend.ai에 자신의 GPU 워크스테이션을 등록하여 원격 관리
• 고성능 컴퓨팅(HPC) 및 과학시각화(HPCV) 지원
– 클러스터의 서비스와 애플리케이션 배포 단순화로 최신 버전 유지 및 성능 향상
37. 감사합니다!
질문은 contact@lablup.com 으로!
Lablup Inc.
Backend.AI
Backend.AI GitHub
Backend.AI Cloud
CodeOnWeb
https://www.lablup.ai
https://www.backend.ai
https://github.com/lablup/backend.ai
https://cloud.backend.ai
https://www.codeonweb.com
덧) 옆에서 열리는 대한민국 금융대전에서
래블업 부스를 운영 중입니다!
39. Q&A
• Backend.AI 자체의 성능 오버헤드
– agent: Python asyncio 기반의 싱글쓰레드 데몬으로, CPU 1코어 + RAM/Disk 1 GiB 정도면 충분
– manager: 2코어 이상 독립 서버 또는 가상 머신 할당 권장 (PostgreSQL, etcd, Redis 구동)
• Backend.AI 최소 실행 환경
– OS: Ubuntu 16.04+ / CentOS 7.2+
– SW: Docker 17.03+ (18.03 권장), Python 3.6
– nvidia-docker는 옵션
• 설치 환경별 스케일링 정책
– 클라우드 : 오토스케일링
– 온-프레미스 : 스케줄링 (자원활용률 극대화)
• NSML과 같은 "연산 라이브러리" 제공 여부
– Backend.AI 자체는 오케스트레이션 역할에 집중
– 사용자가 직접 또는 래블업에 요청하여 특정 연산 라이브러리가 포함된 Docker 이미지 빌드 및 사용 가능