Lablup Conf 1st (Session4/Core)
"Paving the road to AI-powered world" - 김준기
- 발표내용
* Recap of Backend.AI history
* Future roadmap of Backend.AI for next 2 years
- 영상보러가기 : https://youtu.be/kAGSl99U0Bo
Lablupconf session7 People don't know what they want until LABLUP show it to ...Lablup Inc.
Lablup Conf 1st (Session7/Cases)
"People don't know what they want until LABLUP show it to them. : Practical guide to building GPU clusters for AI" - 김정묵
- 발표내용 :
* 교육부터 하이퍼스케일 AI 모델 개발까지, GPU Cluster 구축과 운영을 준비하실 때 미리 고려하실 사항들을 사례와 함께 공유드립니다.
- 영상보러가기 : https://youtu.be/GMYWKF993J8
Lablupconf session4 "스토리지 솔루션 입출력 파이프라인 가속화와 개발 범위 간의 균형 잡기"Lablup Inc.
Lablup Conf 1st (Session4/Core)
"How to strike a balance between Accelerating pipeline I/O of each storage solution and development scope" - 강지현
- 발표내용 :
* Backend.AI Storage Proxy: Accelerating data / model I/O pipeline
* Integrating storage solution: PureStorage / NetApp
* Case: Building NetApp integration
- 영상 보러 가기 : https://youtu.be/itCEkuO2DtE
Just Model It 이벤트에서 사용할 Backend.AI 에 관한 소개입니다. Backend.AI의 개괄, 주요 기능 및 사용예들을 다룹니다. 또한 Backend.AI 를 이용한 End-to-end ML model 개발 시나리오도 소개합니다.
An Introduction to Backend.AI to use in Just Model It event. It covers the overview of Backend.AI, its main features and examples. It also introduces the scenario of developing end-to-end ML model using Backend.AI.
Lablupconf session7 People don't know what they want until LABLUP show it to ...Lablup Inc.
Lablup Conf 1st (Session7/Cases)
"People don't know what they want until LABLUP show it to them. : Practical guide to building GPU clusters for AI" - 김정묵
- 발표내용 :
* 교육부터 하이퍼스케일 AI 모델 개발까지, GPU Cluster 구축과 운영을 준비하실 때 미리 고려하실 사항들을 사례와 함께 공유드립니다.
- 영상보러가기 : https://youtu.be/GMYWKF993J8
Lablupconf session4 "스토리지 솔루션 입출력 파이프라인 가속화와 개발 범위 간의 균형 잡기"Lablup Inc.
Lablup Conf 1st (Session4/Core)
"How to strike a balance between Accelerating pipeline I/O of each storage solution and development scope" - 강지현
- 발표내용 :
* Backend.AI Storage Proxy: Accelerating data / model I/O pipeline
* Integrating storage solution: PureStorage / NetApp
* Case: Building NetApp integration
- 영상 보러 가기 : https://youtu.be/itCEkuO2DtE
Just Model It 이벤트에서 사용할 Backend.AI 에 관한 소개입니다. Backend.AI의 개괄, 주요 기능 및 사용예들을 다룹니다. 또한 Backend.AI 를 이용한 End-to-end ML model 개발 시나리오도 소개합니다.
An Introduction to Backend.AI to use in Just Model It event. It covers the overview of Backend.AI, its main features and examples. It also introduces the scenario of developing end-to-end ML model using Backend.AI.
네이버 클라우드 플랫폼의 "TensorFlow Server"상품은 TensorFlow를 비롯한 딥러닝 및 머신러닝 패키지와 코드를 작성할 수 있는 웹 기반의 Jupyter Notebook을 제공하여 빠르게 딥러닝, 머신러닝을 구현할 수 있게 해주는 상품입니다. 해당 온라인 교육을 통해 네이버 클라우드 플랫폼 상에서 Jupyter를 이용해 데이터 분석환경을 구축하는 법을 알아봅니다. | The "TensorFlow Server" product on Naver's cloud platform includes TensorFlow. This product provides a web-based Jupyter Notebook that allows users to write deep learning and machine learning packages and code so that they can quickly implement deep learning and machine learning.In this chapter, we will learn how to build a data analysis environment using Jupyter on Naver's cloud platform.
Points to be aware of when setting up the GPU and points to be aware of when verifying performance are summarized based on the reference link (https://hiwony.tistory.com/3).
Lablup Conf 1st (Keynote/Core)
"The good, the bad, the weird: Future of Backend.AI" - 신정규
발표내용
- Road to Backend.AI. Current and the future.
영상보러가기
- https://youtu.be/5askMmSumP4
Machine Learning Model Serving with Backend.AIJeongkyu Shin
머신러닝 모델을 서비스 단에서 서빙하는 것은 손이 많이 갑니다.
서비스 과정을 편리하게 하기 위하여 TensorFlow serving 등 서빙 과정을 돕는 다양한 도구들이 공개되고 개발되고 있습니다만, 여전히 서빙 과정은 귀찮고 불편합니다. 이 세션에서는 Backend.AI 와 TensorFlow serving을 이용하여 간단하게 TensorFlow 모델을 서빙하는 법에 대해 다루어 봅니다.
Backend.AI 서빙 모드를 소개하고, 여러 TF serving 모델 등을 Backend.AI 로 서비스하는 과정을 통해 실제로 사용하는 법을 알아봅니다.
Serving the machine learning model at the service level is a lot of work. A variety of tools are being developed and released to facilitate the process of serving. TensorFlow serving is the greatest one for serving now, but the docker image baking-based serving process is not easy, not flexible and controllable enough. In this session, I will discuss how to simplify the serving process of TensorFlow models by using Backend.AI and TensorFlow serving.
I will introduce the Backend.AI serving mode (on the trunk but will be official since 1.6). After that, I will demonstrate how to use the Backend.AI serving mode that conveniently provides various TensorFlow models with TensorFlow serving on the fly.
네이버 클라우드 플랫폼의 init script는 서버 생성 후, 최초 1회 실행되는 스크립트입니다. 해당 스크립트를 서버 생성 후 실행하도록 구성을 하면, 서버 생성 후 추가 설치가 필요한 패키지들을 서버 생성 시에 자동으로 설치되도록 설정이 가능합니다. 해당 init script가 어떻게 동작하는지, 그리고 실무에서 어떻게 적용하여 이 가능한지 설명해드립니다 | 네이버 클라우드 플랫폼의 init script는 서버 생성 후, 최초 1회 실행되는 스크립트입니다. 해당 스크립트를 서버 생성 후 실행하도록 구성을 하면, 서버 생성 후 추가 설치가 필요한 패키지들을 서버 생성 시에 자동으로 설치되도록 설정이 가능합니다. 해당 init script가 어떻게 동작하는지, 그리고 실무에서 어떻게 적용하여 이 가능한지 설명해드립니다
Cloud market trends, what is kubernets? (Korean)DonghwanKim85
As of early last year, Kubernetis has become the mainstream cloud market.
In addition, major cloud vendors such as Amazon, Google, Azure, and others have all prepared this seminar because of the competitive support that IBM and Cisco support for the container management environment and because of the increasing standard of Cubernetis.
Backend.AI (https://backend.ai)는 클라우드 및 온-프레미스 환경에서 여러 사용자가 안전하고 효율적으로 컴퓨팅 자원을 공유할 수 있는 머신러닝에 특화된 인프라 관리 프레임워크입니다. 현재 널리 사용되고 있는 오픈소스 기술인 OpenStack, Kubernetes 등과 비교하여 어떤 특징과 차이점이 있는지 소개하고, 프레임워크의 구조와 기반 기술 및 응용 사례를 데모와 함께 소개합니다.
네이버 클라우드 플랫폼의 "TensorFlow Server"상품은 TensorFlow를 비롯한 딥러닝 및 머신러닝 패키지와 코드를 작성할 수 있는 웹 기반의 Jupyter Notebook을 제공하여 빠르게 딥러닝, 머신러닝을 구현할 수 있게 해주는 상품입니다. 해당 온라인 교육을 통해 네이버 클라우드 플랫폼 상에서 Jupyter를 이용해 데이터 분석환경을 구축하는 법을 알아봅니다. | The "TensorFlow Server" product on Naver's cloud platform includes TensorFlow. This product provides a web-based Jupyter Notebook that allows users to write deep learning and machine learning packages and code so that they can quickly implement deep learning and machine learning.In this chapter, we will learn how to build a data analysis environment using Jupyter on Naver's cloud platform.
Points to be aware of when setting up the GPU and points to be aware of when verifying performance are summarized based on the reference link (https://hiwony.tistory.com/3).
Lablup Conf 1st (Keynote/Core)
"The good, the bad, the weird: Future of Backend.AI" - 신정규
발표내용
- Road to Backend.AI. Current and the future.
영상보러가기
- https://youtu.be/5askMmSumP4
Machine Learning Model Serving with Backend.AIJeongkyu Shin
머신러닝 모델을 서비스 단에서 서빙하는 것은 손이 많이 갑니다.
서비스 과정을 편리하게 하기 위하여 TensorFlow serving 등 서빙 과정을 돕는 다양한 도구들이 공개되고 개발되고 있습니다만, 여전히 서빙 과정은 귀찮고 불편합니다. 이 세션에서는 Backend.AI 와 TensorFlow serving을 이용하여 간단하게 TensorFlow 모델을 서빙하는 법에 대해 다루어 봅니다.
Backend.AI 서빙 모드를 소개하고, 여러 TF serving 모델 등을 Backend.AI 로 서비스하는 과정을 통해 실제로 사용하는 법을 알아봅니다.
Serving the machine learning model at the service level is a lot of work. A variety of tools are being developed and released to facilitate the process of serving. TensorFlow serving is the greatest one for serving now, but the docker image baking-based serving process is not easy, not flexible and controllable enough. In this session, I will discuss how to simplify the serving process of TensorFlow models by using Backend.AI and TensorFlow serving.
I will introduce the Backend.AI serving mode (on the trunk but will be official since 1.6). After that, I will demonstrate how to use the Backend.AI serving mode that conveniently provides various TensorFlow models with TensorFlow serving on the fly.
네이버 클라우드 플랫폼의 init script는 서버 생성 후, 최초 1회 실행되는 스크립트입니다. 해당 스크립트를 서버 생성 후 실행하도록 구성을 하면, 서버 생성 후 추가 설치가 필요한 패키지들을 서버 생성 시에 자동으로 설치되도록 설정이 가능합니다. 해당 init script가 어떻게 동작하는지, 그리고 실무에서 어떻게 적용하여 이 가능한지 설명해드립니다 | 네이버 클라우드 플랫폼의 init script는 서버 생성 후, 최초 1회 실행되는 스크립트입니다. 해당 스크립트를 서버 생성 후 실행하도록 구성을 하면, 서버 생성 후 추가 설치가 필요한 패키지들을 서버 생성 시에 자동으로 설치되도록 설정이 가능합니다. 해당 init script가 어떻게 동작하는지, 그리고 실무에서 어떻게 적용하여 이 가능한지 설명해드립니다
Cloud market trends, what is kubernets? (Korean)DonghwanKim85
As of early last year, Kubernetis has become the mainstream cloud market.
In addition, major cloud vendors such as Amazon, Google, Azure, and others have all prepared this seminar because of the competitive support that IBM and Cisco support for the container management environment and because of the increasing standard of Cubernetis.
Backend.AI (https://backend.ai)는 클라우드 및 온-프레미스 환경에서 여러 사용자가 안전하고 효율적으로 컴퓨팅 자원을 공유할 수 있는 머신러닝에 특화된 인프라 관리 프레임워크입니다. 현재 널리 사용되고 있는 오픈소스 기술인 OpenStack, Kubernetes 등과 비교하여 어떤 특징과 차이점이 있는지 소개하고, 프레임워크의 구조와 기반 기술 및 응용 사례를 데모와 함께 소개합니다.
[오픈테크넷서밋2022] 국내 PaaS(Kubernetes) Best Practice 및 DevOps 환경 구축 사례.pdfOpen Source Consulting
최근 금융권이나 공공기관에서는 차세대 프로젝트에 PaaS 기반 시스템을 구축하고 그 위에 마이크로서비스아키텍처(MSA)를 구현하기 위해 많은 투자를 하고 있는데요, 많은 기업들이 오픈소스 기반의 인프라를 고려할 때 기술지원이나 버전 업그레이드 등에 대한 애로사항을 겪게 됩니다. 이런 문제에 대한 해결 방안 중 하나가 바로 커뮤니티 기반의 오픈소스 재단을 활용하는 것인데요!
본 자료에서 커뮤니티 오픈소스 기반 인프라 구축의 장점과 실제 사례에 대해 확인해 보실 수 있습니다.
Pivotal은 개발자 생산성을 높이고 운영비용을 줄이면서 성공적인 비지니스를 할 수 있도록 개발 환경의 혁신 문화와 플랫폼을 제공하고 있습니다.
본 세션에서는 플랫폼의 구조와 효과에 대해 소개하며 기업이 진정한 기술선도 업체로 발전해 갈 수 있도록 혁신적은 플랫폼 *PAS, *PKS를 소개합니다.
*PAS: Pivotal Application Service로 개발자에게 기능 구현 속도를 높이고, 운영 팀은 세계 최고 수준의 가용성을 제공해주는 서비스입니다.
*PKS: Pivotal Container Service로 Kubernates의 배포, 관리, 모니터링, 업데이트 등을 자동화하고 Pivotal에서 관리해주는 서비스입니다
[Agenda]
*토크쇼 주제: Cloud Native를 위한 컨테이너 플랫폼 구현과 활용 이야기
1. 시장 및 기술동향 소개 & Container & Kubernetes 소개
2. Red Hat OpenShift를 왜 써야 할까요?
3. OpenShift Infra 구성 방안은 어떻게 되나요?
4. OpenShift와 Kubernetes의 주요 차이점은 무엇일까요?
5. 완전한 오픈소스 기반 OpenShift로 PaaS를 빠르게 구축이 가능 하나요?
6.컨테이너플랫폼의 운영을 효율적으로 하기위한 표준화에는 어떤 것이 필요할까요?
7. Red Hat OpenShift를 이용하여 기존의 시스템을 마이그레이션 하는 방법은 무엇인가요?
8. 개발자와 운영자가 일을 수월하게 할 수 있도록 도움을 준다고 하는데 어떠한 부분인가요?
9. Red Hat OpenShift 구축 성공 사례가 있나요?
NexClipper is an open source software to monitor and manage performance for cloud native computing - Docker and Kubernetes. NexClipper features the following capabilities:
Fullstack dashboard (Kubernetes and Infrastructure)
Container Cluster (Kuberentes cluster, nodes and worklodas)
Infrastruture Monitoring (Docker Container, Host, Resource)
Incidents Management (Rule set and alert manager) (#30)
Rest API service (Soon)
Dashboard Enhancement to replace k8s dashboard (Soon)
Dashboard Enhancement for customizing (Plan)
Global view and multi tenancy (Plan)
Prometheus Integration (Plan)
Workload management and deployment (Plan)
Resource analytics and forecasting (Plan)
NetApp AI Control Plane for Kubernetes and Kubeflow
NetApp AI Data Control Plane for Kubernetes and Kubeflow
NetApp Trident and Python REST API for Kubernetes and Kubeflow
Lablupconf session1-2 "거대한 백엔드에 벽돌 끼워넣기"Lablup Inc.
Lablup Conf 1st(Session1/Community)
"거대한 백엔드에 벽돌 끼워넣기" - 여종현
- 발표내용 :
* 이슈 관리 기법 - Backend.AI의 agent, manager, storage-proxy 등의 issue를 한 repo에 모아서 관리하기
* Github action - towncrier, travis CI, branch 관리
* Backend.AI의 문서를 바탕으로 파악한 소스 코드 구조
- 영상보러가기 : https://youtu.be/ip_leryNV-I
초심자를 위한 무작정 시작하는 Backend.AI_04
○ Backend.AI 버전 확인하기
○ 사용자 정보 변경하기
○ 사용자 설정 건드려보기
- 일반
* 데스크탑 알림
* 간결한 사이드바 기본 사용 옵션
* 언어 설정
* SSH 키페어 관리 (하단 링크 참고)
* 자동 업데이트 체크 옵션
* 자동 로그아웃 활성화/비활성화
* 쉘 스크립트 환경 설정하기
- 로그
* 로그 살펴보기
* 로그 새로고침
* 로그 삭제하기
○ FAQ & Troubleshooting
- 세션에서 Jupyter notebook 실행시 kernel error로 종료됩니다.
- 비밀번호를 잊어버렸어요.
- 비밀번호를 올바르게 입력했는데도 로그인이 안됩니다.
- 기타 참고할 내용
1. Import & Run (가져오기 & 실행)
1) 노트북 가져오기
- (https://github.com/lablup/backend.ai-example-notebooks)
2) 노트북 런치 버튼 만들기
3) GitHub 저장소 내용 가져오기
- Data & Storage 메뉴에서 가져온 저장소 폴더 확인하기
2. Data & Storage (데이터 & 폴더)
1) 폴더 제어기능 살펴보기
- 폴더 생성하기
- 폴더 정보 보기
- 폴더 활용하기
∘ 폴더에 파일 업로드하기
∘ 폴더 마운트하여 세션 생성하기
∙ 웹 터미널에서 자동 마운트 폴더 확인하기
∘ 폴더에서 업로드한 파일 다운로드하기
∘ 폴더 내 파일 이름 변경하기
∘ 폴더 내 파일 삭제하기
- 폴더 공유하기
∘ 폴더 초대하기
∘ 폴더 초대 수락/거절하기
∘ 폴더 공유 권한 갱신하기
- 폴더 이름 변경하기
- 폴더 삭제하기
2) 자동 마운트 폴더 탭
- 자동 마운트 폴더 생성하기
- 폴더 마운트 없이 세션 생성하기
∘ 웹 터미널에서 자동 마운트 폴더 확인하기
3. Statistics (통계)
1) 일일 사용량 통계
2) 일주일 간 사용량 통계
초심자를 위한 무작정 시작하는 Backend.AI-02
○ Backend.AI 클라우드 둘러보기
- Summary(요약) 페이지
* 시작 패널
* 자원 사용량 살펴보기
* 시스템 자원
* 공지
* 초대 폴더
○ Session(세션) 페이지
- 세션 상태 안내
- 실행중인 세션
* 앱 런쳐
* 웹 터미널
- 종료된 세션
*세션 내 사용량
*사용시간
Backend.AI Technical Introduction (19.09 / 2019 Autumn)Lablup Inc.
This slide introduces technical specs and details about Backend.AI 19.09.
* On-premise clustering / container orchestration / scaling on cloud
* Container-level fractional GPU technology to use one GPU as many GPUs on many containers at the same time.
* NVidia GPU Cloud integrations
* Enterprise features
JMI Techtalk: 한재근 - How to use GPU for developing AILablup Inc.
이 Techtalk에서는 AI 개발을 위해 GPU를 사용할 때 Nvidia가 제공하는 성능 향상을 위한 다양한 방법들을 기술자료들과 함께 소개합니다. 특히 Volta 아키텍처를 기반으로 Mixed precision을 도입하여 성능을 향상하는 과정에 관한 내용을 자세히 다룹니다.
This Techtalk introduces a variety of ways to improve the performance that Nvidia provides when using the GPU for AI development, along with technical resources. In particular, this talk discusses the process of improving performance by introducing mixed precision based on the Volta architecture.
JMI Techtalk: 강재욱 - Toward tf.keras from tf.estimator - From TensorFlow 2.0 p...Lablup Inc.
이 Techtalk에서는 TensorFlow 2.0으로 이전시 tf.estimator 에서 tf.keras로 이전해야 하는 이유에 대하여 설명합니다.
This Techtalk explains why you need to migrate from tf.estimator to tf.keras when moving to TensorFlow 2.0.
5. Backend.AI의 기술 혁신
§ 컨테이너 기반 GPU 가상화 기술
– 2021년 11월 현재 미국·일본·한국 특허 등록
– 하나의 물리적 GPU 장치를 여러 개의 컨테이너가 각자 독립된 영역으로 나누어 쓸 수
있게 해주는 기술
– CUDA 8.0 이후 버전 및 GPU 모델과 상관 없이 사용 가능
– 런타임에 할당량을 조절할 수 있어 유연한 자원 스케줄링 가능
§ 컨테이너 환경 조합 기술
– 2021년 11월 현재 미국·한국 특허 등록
– 컨테이너 생성 시 호스트의 아키텍처 유형 및 컨테이너 이미지의 배포판 유형, C
라이브러리 유형(glibc/musl) 등에 따라 동적으로 컨테이너 내부 환경을 미리
만들어진 라이브러리 이미지로부터 조합하여 생성
– 임의의 Docker Image로 만들어진 개발환경을 손쉽게 Backend.AI로 import할 수
있도록 해주는 역할
– 이를 통해 NGC 이미지 등을 신규 버전이 나오는대로 거의 즉시 지원
6. Backend.AI의 기술 혁신
§ 스토리지 기반 Universal Abstraction
– 데이터 양이 증가·누적될수록 처음에는 GPU에 주목하였던 고객들이 Storage에 관심을
가질 수밖에 없음
– 컨테이너의 볼륨 개념을 보다 친숙한 '클라우드 폴더' 형태로 재정의
– Storage proxy를 통한 파일시스템 가속 추상화로 파트너·벤더 사들이 가진 강점 활용
§ Programmable Sandboxing
– 라이브러리 및 시스템콜 수준에서의 보안 정책 설정
– 컨테이너 생태계 초기부터 안정적인 자원 분할 지원 (CPU 코어 개수 인식 보정 등)
§ Reservoir
– Backend.AI와 통합된 오픈소스 패키지 미러링 서비스
– 망분리 환경 및 고도 보안 환경에서 유연한 개발 흐름 지원
7. 기술 혁신을 통한 고객 가치
§ 클라우드를 내 품에
– 상용 클라우드들이 제공하는 API 및 자동화, 자원
관리의 편리함을 on-premise에서 구현
§ 워크로드 규모 및 특성에 따른 유연한 자원 할당 지원
– 하나의 GPU를 여러 개로 쪼개서 사용하거나
– 여러 개의 GPU를 묶어서 분산·병렬 처리에 활용하거나
– Resource group을 통한 권한 및 제한 관리
§ GPU의 전 수명주기에 따른 활용 지원
– 선택적으로 GPU 가상화를 활용하여 추론 워크로드 및
학습 워크로드를 분리
– 모델 개발자들은 가능한 최신 세대의 GPU를 활용하되,
추론 서비스는 이전 세대의 GPU 활용
– GPU 수명이 다할 때까지 최대한의 가동률 유지
8. Backend.AI 개발 로드맵
Alpha Beta Production-ready
2015.8
프로젝트 공개
(PyCon KR)
2016.11
v0.9 릴리즈
GitHub을 통한
오픈소스 공개
LGPLv3/MIT
라이선스 적용
2017.10
v1.0 릴리즈
REPL 기능 안정화
개발 매뉴얼 제공
가상폴더 기능 추가
PyPI 공개
(pip install)
2018.1~3
v1.1 ~ v1.3 릴리즈
코드 안정화
설치프로그램 추가
플러그인 구조
브랜치 관리 규칙 적용
2018.9
v1.4 릴리즈
GPU 부분공유 기능 첫 구현
cloud.backend.ai
비공개 베타 시작
2018.12
v18.12 릴리즈
버전 번호 부여 정책 변경 (연.월)
공개 및 사설 Docker registry 연동
Google TPU 지원 추가
2019.9
v19.09 (Enterprise R1) 릴리즈
GPU 부분 공유 및 가상화 고도화
연산 자원 리소스 그룹 기능
이메일 기반의 사용자 관리 기능
도메인별 관리 기능 및 SSO 지원
엔터프라이즈용 control panel 기능
고가용성(HA) 지원
Harbor Docker Registry v1 연동
9. Backend.AI 개발 로드맵 (2020-2021)
Enterprise R2 (20.03/09) Enterprise R3 (21.03/09)
2020.6
v20.03 릴리즈
Python 3.8 기반
Callosum 보안 터널 연결 도입
표준화된 파이프라인 모듈 인터페이스
LustreFS, GlusterFS 지원
리눅스 데스크탑 GUI 터널링 지원
Harbor Docker Registry v2 연동
DGX-A100 지원
k8s pod 연동 지원 (베타)
Google TPU 지원 (베타)
AMD ROCm 지원 (베타)
cloud.backend.ai 공개 베타 시작
2020.11
v20.09 릴리즈
멀티컨테이너 세션 지원
데이터 파이프라인
XFS 파일시스템 지원
PureStorage 통합
DGX 통합 지원 (정식)
AMD ROCm 지원 (정식)
2021.3
v21.03 릴리즈
Python 3.9 기반
SQLAlchemy v1.4 /
aioredis v2 도입
대규모 클러스터 지원 안정화
스케줄러 HoL 회피기법 적용
Watcher framework (베타)
10. Backend.AI 개발 로드맵 (2021-2022)
Enterprise R3 (21.03/09) Enterprise R4 (22.03/09)
2021.11
v21.09 릴리즈
ARM64 (Apple Silicon, AWS Graviton,
NVIDIA Jetson Nano) 지원
RDMA 가속 지원
NetApp 스토리지 통합
추론 워크로드를 위한 앱 스트리밍 최적화
실시간 통계 대시보드
파이프라인 스케줄러 통합 (베타)
템플릿 기반 세션 생성 (정식)
Watcher framework (정식)
2022.3
v22.03 릴리즈
Python 3.10 기반
Storage proxy 파일브라우저 통합
동적 세션 자원 재할당(resizing/rescaling)
컨테이너 이미지 빌더 컴포넌트
Dell 스토리지 통합
파이프라인 스케줄러 통합 (정식)
k8s pod 연동 지원 (정식)
…
2022~
그 이후
cloud.backend.ai 정식 공개 서비스
추론 워크로드를 위한 대규모 자동 스케일링 지원
ARM64/x86 hybrid 환경 지원
IoT/Edge 장치 환경 지원
Federated Learning & Inference 통합
World Console
12. § Code of Conduct
– 포괄적 차별금지 원칙과 자율성 존중 원칙
– 잡일을 줄이고 더 중요한 것에 집중하기
– 명시적인 것이 암묵적인 것보다 낫다
– 기록과 공유 원칙
– 휴가는 자유롭게, 다만 긴 휴가일수록 미리 알려주기
§ 개발 관련
– 어떤 삽질이 하루보다 길어지면 팀원들과 현재 상황과 막혀있는 부분을 '떠들기'
✓ 삽질에 대해서 스스로 부끄러워하지 않기 & 비난하지 않기
✓ 실수가 있다면 반복하지 않는 방법을 찾고 실행하자
– 상대방이 알기보다는 모를 것이라고 가정하고 말하기
✓ 리뷰어도 맥락 전환이 바로 안 될 수 있음
– 좋은 코드 리뷰 문화를 위한 노력
래블업의 개발 문화
13. § Backend Bootcamp
– 대부분의 경우 비동기 프로그래밍 경험이 거의 없음
– Toy project: asyncio 기반의 비동기 채팅 애플리케이션 개발
– Backend.AI 기술 스택을 공부할 수 있는 주제들 제시
§ Backend.AI Onboarding
– "good first issue" 할당 및 해결
– 코드 리뷰 프로세스 경험해보기
– Codebase Seminar
§ OKR
– 인턴 기간 혹은 향후 1~2개월 간 집중해서 하고 싶은 이슈 고르기
– 주간 미팅을 통해 이슈 진행상황 공유
– PR 작성 및 코드 리뷰는 수시로 진행
§ FACT: 현재까지 래블업의 모든 신입 개발자는 인턴 프로그램을 거쳐옴
래블업의 인턴/신입 프로그램
14. 오픈소스 생태계와의 협업
§ 협업 사례
– Python asyncio & aio-libs
✓ async-timeout 4.0.1 버그 패치 사례
✓ aiodocker: 2017년부터 커미터로 참여
– PyCon
✓ PyCon KR에 7년 연속 관련 주제 발표
✓ PyCon APAC/HK 참여
– TensorFlow
✓ ML GDE 활동
✓ TF Dev Summit, Google I/O 참여
– 오픈프론티어, 컨트리뷰션 아카데미
✓ 회사 차원에서 장려 https://writejuo.tistory.com/159
15. 오픈소스 장단점?
§ 오픈소스 하는 회사
– 회사일을 했는데 나의 깃헙 프로필이 풍부해진다!
– 우리끼리만 볼 거니까 대충 때우고 넘어가는 경우를
심리적으로 피하게 됨
– 나 자신과 회사의 기술력을 외부에서 인정받기 좋다
– 회사 내에서 해결이 안 되는 경우 외부의 도움을
받을 수 있다
– 가끔 취미로 하는 오픈소스가 회사일의 연장처럼
느껴지거나 실제로 그럴 때…
§ 오픈소스 의존
– 밑바닥까지 동작 원리를 파악할 수 있다
– 내가 직접 뜯어보고 고칠 수 있음
– upstream 이슈 발생 시 해결 시간 예상이 어려움
– 내가 직접 뜯어고치고 싶은 유혹을 참아야 할 때…
우리 오픈소스할거야 좋은 거지?
오픈소스도 쓸거야 좋은 거 맞지?
Cortesy of Star Wars
16. 래블업으로 오세요!
EDS TV Commercial (circa 2000)
2021년 10월부터 전문연구요원 전직 가능!
(신규편입 TO는 2022년부터)
17. Lablup Inc. https://www.lablup.com
Backend.AI https://www.backend.ai
Backend.AI GitHub https://github.com/lablup/backend.ai
Backend.AI Cloud https://cloud.backend.ai
Thank you!
Joongi Kim
CTO