파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) Yunho Maeng
#Python #딥러닝 #API #ibmdeveloperday2019
여러분들의 성원에 보답하기 위해 IBM Developer Day에서 발표한 세션 자료를 공개합니다! 그 어느때 보다 발표자료를 요청한 분들이 많아 놀랐습니다~ 그럼 다음에 또 뵙겠습니다 :)
Github https://github.com/yunho0130/devday_python_api
세션 영상 https://youtu.be/Z7bTfnuLXck
** 해당 자료는 외부 공유 인가 되었습니다.
1. 딥러닝의 동작 방식에 대한 기초 가이드
2. 네트워크를 통한 공간 변환 개괄
"다음을 꼭 기억하세요. 지금까지 딥러닝의 실제 성공은 연속된 기하학적 변환을 사용하여 공간 X 에서 공간 Y 로 매핑하는 능력에 기인합니다."
프랑소와 숄레, 케라스 창시자에게 배우는 딥러닝 가운데.
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...홍배 김
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
오사카 대학 박사과정인 Takato Horii군이 작성한 자료
데이터 생성 모델로 우수한 GAN을 이용하여 비지도학습을 통해
"알기쉬게" 이미지의 정보를 표현하는 특징량을 "간단하게"획득하기
* 특징이 서로 얽혀있는 Physical space에서 서로 독립적인 Eigen space로 변환하는 것과 같은 원리
파이썬(Python) 으로 나만의 딥러닝 API 만들기 강좌 (Feat. AutoAI ) Yunho Maeng
#Python #딥러닝 #API #ibmdeveloperday2019
여러분들의 성원에 보답하기 위해 IBM Developer Day에서 발표한 세션 자료를 공개합니다! 그 어느때 보다 발표자료를 요청한 분들이 많아 놀랐습니다~ 그럼 다음에 또 뵙겠습니다 :)
Github https://github.com/yunho0130/devday_python_api
세션 영상 https://youtu.be/Z7bTfnuLXck
** 해당 자료는 외부 공유 인가 되었습니다.
1. 딥러닝의 동작 방식에 대한 기초 가이드
2. 네트워크를 통한 공간 변환 개괄
"다음을 꼭 기억하세요. 지금까지 딥러닝의 실제 성공은 연속된 기하학적 변환을 사용하여 공간 X 에서 공간 Y 로 매핑하는 능력에 기인합니다."
프랑소와 숄레, 케라스 창시자에게 배우는 딥러닝 가운데.
InfoGAN: Interpretable Representation Learning by Information Maximizing Gene...홍배 김
InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets
오사카 대학 박사과정인 Takato Horii군이 작성한 자료
데이터 생성 모델로 우수한 GAN을 이용하여 비지도학습을 통해
"알기쉬게" 이미지의 정보를 표현하는 특징량을 "간단하게"획득하기
* 특징이 서로 얽혀있는 Physical space에서 서로 독립적인 Eigen space로 변환하는 것과 같은 원리
2016년 4월 9일
microsoft 세미나 발표자료입니다.
발표는 PPT 로 할거고 애니메이션등 약간의 내용을 추가해서 발표할 예정입니다.
알파고관련된 내용만있는 축약본은 아래링크에 있습니다.
http://www.slideshare.net/redrebel/20160409-ms-ml
Machine Learning Foundations (a case study approach) 강의 정리SANG WON PARK
실제 비즈니스에서 많이 활용되는 사례를 중심으로 어떻게 기존 데이터를 이용하여 알고리즘을 선택하고, 학습하여, 예측모델을 구축 하는지 jupyter notebook을 이용하여 실제 코드를 이용하여 실습할 수 있다.
강의 초반에 강조하는 것 처럼, 머신러닝 알고리즘은 나중에 자세히 설명하는 과정이 따로 있고, 이번 강의는 실제 어떻게 활용하는지에 완전히 초점이 맞추어져 있어서, 알고리즘은 아주 간략한 수준으로 설명해 준다. (좀 더 구체적인 내용은 심화과정이 따로 있음)
http://blog.naver.com/freepsw/221113685916 참고
https://github.com/freepsw/coursera/tree/master/ML_Foundations/A_Case_Study 코드 샘플
[한국어] Neural Architecture Search with Reinforcement LearningKiho Suh
모두의연구소에서 발표했던 “Neural Architecture Search with Reinforcement Learning”이라는 논문발표 자료를 공유합니다. 머신러닝 개발 업무중 일부를 자동화하는 구글의 AutoML이 뭘하려는지 이 논문을 통해 잘 보여줍니다.
이 논문에서는 딥러닝 구조를 만드는 딥러닝 구조에 대해서 설명합니다. 800개의 GPU를 혹은 400개의 CPU를 썼고 State of Art 혹은 State of Art 바로 아래이지만 더 빠르고 더 작은 네트워크를 이것을 통해 만들었습니다. 이제 Feature Engineering에서 Neural Network Engineering으로 페러다임이 변했는데 이것의 첫 시도 한 논문입니다.
모두를 위한 Deep Reinforcement Learning 강의를 요약정리
http://hunkim.github.io/ml/
실습에 사용된 코드
https://github.com/freepsw/tensorflow_examples/tree/master/20.RL_by_SungKim
[한국어] Multiagent Bidirectional- Coordinated Nets for Learning to Play StarCra...Kiho Suh
The document summarizes a presentation on a paper about using multiagent bidirectional-coordinated networks (BiCNet) to develop AI agents that can learn to play combat games in StarCraft. The paper introduces BiCNet, which uses bidirectional RNNs to allow agents to communicate and coordinate their actions. Experiments show BiCNet agents outperform independent and other cooperative agents in different combat scenarios in StarCraft, developing strategies like focus firing and coordinated attacks. Visualizations of agent coordination and additional areas for investigation are also discussed.
Sing, Play and Learn is an animation studio and content creator that produces educational videos and apps for children. It has 2.7K videos on its app that reaches 150 million users. On YouTube it has over 4.1 billion views. It creates colorful and dynamic content in 9 languages and is the number 1 education app in 112 countries. It aims to produce high quality, long-form content to educate and entertain children worldwide.
2016년 4월 27일, NDC2016 발표자료입니다.
전통적인 콘텐츠 생산은 기획자, 개발자가 하나하나 컨트롤해야 하는 노동집약적 산업입니다. 저 또한 처음에 입사했을 때 출시를 위해 며칠 만에 이백여 개가 넘는 맵을 찍어야 했던 아픔이 있습니다. 그 뒤에도 플레이어들을 위한 콘텐츠 생산은 계속되었지만, 플레이어들의 콘텐츠 소비 속도는 생산 속도를 뛰어넘은 지 오래되었습니다. 대안은 로그라이크 같은 장르에서 널리 쓰이는 Procedural Contents Generation이라고 생각합니다. 외국 인디 씬에서는 이미 많이 사용되고 있는 이 방법에 최근 점점 더 많이 사용되고 있는 신경망을 활용해서 색다른 콘텐츠 생산 기법을 소개하려 합니다.
explain versionning related with release.
with this could know what is trunk, branch and tag each.
배포와 관련하여 버전닝을 설명합니다.
trunk, branch, tag가 왜 있고, 어떻게 사용되는지 설명합니다.
프로젝트가 진행될 수록 특정 테스트 만을 위한 설정 파일 수가 엄청 증가합니다. 그런데 설정파일은 변경될 수 밖에 없고, 카피해 두었던 테스트를 위한 설정파일들은 그 표준과 달라서 기존 테스트들을 깨지게 합니다.
설정 오버라이딩 이라는 개념을 도입하여 깔끔히 처리하는 방법을 소개합니다.
2. 입출력의 함수를 근사화 할 수 있다.
신경망(Neural Network)
https://www.slideshare.net/yonghakim900/ss-60252533
3. 입력과 출력을 반복적으로 주고, 함수를 근사화 해가는 과정.
상세 방법은 설명하지 않지만, 하여간에 학습됩니다.
신경망의 학습
4. 학습에 사용할 데이터가 있어 합니다.
학습된 후에는 처음 본 것도 인식 가능합니다.
데이터
5. 신경망인데, 가운데있는 층이 많은 것을 DNN(Deep NN)라고 합
니다.
그리고 DNN이 학습하는 것을 Deep Learning이라고 합니다.
딥러닝
https://www.slideshare.net/papisdotio/introduction-to-multi-gpu-deep-learning-with-digits-2-mike-wang
7. 모든 경우의 수 탐색가능
9 x 8 x… 2
틱텍토
http://blog.naver.com/PostView.nhn?blogId=best999&logNo=220680107733&parentCategor
yNo=&categoryNo=&viewDate=&isShowPopularPosts=false&from=postView
8. 1996년 딥블루
경우의 수는 탐색할 만 하다.
체스
https://www.youtube.com/watch?v=SUbqykXVx0A&feature=youtu.be
9. 모든 경우의 수 탐색 불가.
361X 360 x … > 우주 원자 수
바둑
https://www.youtube.com/watch?v=SUbqykXVx0A&feature=youtu.be
10. • 2개의 네트웤 + MCTS
Alphago를 요약하면
Policy Network Value Network
11. 현재의 판에 대한 다음 수를 학습
프로기사의 기보를 사용.
Policy Network
https://www.slideshare.net/ckmarkohchang/alphago-in-depth
23. • 게임의 끝까지 가보지 않아도 된다.
Value Network의 역할
https://www.youtube.com/watch?v=8Z2eLTSCuBk&t=0s
24. • Monte-Carlose Tree Search
• 트리 검색 방법
• 이전 최강 프로그램 Pachi이 사용
MCTS
https://en.wikipedia.org/wiki/Monte_Carlo_tree_search
25. • Alphago의 경우 끝까지 가지 않고, 특정 깊이에서 Value
Network의 값을 사용.
MCTS
https://en.wikipedia.org/wiki/Monte_Carlo_tree_search
26. • Policy Network을 사용하여 검색 폭을 줄이고
• MCTS를 사용하여 최선의 가지를 찾고
• Value Network을 사용 하여 검색 깊이를 줄이고
정리하면
https://gogameguru.com/i/2016/03/deepmind-mastering-go.pdf
27. • Mastering the Game of Go with Deep Neural Networks and
Tree
Search https://gogameguru.com/i/2016/03/deepmind-
mastering-go.pdf
• Google DeepMind's AlphaGo: How it
works : https://www.tastehit.com/blog/google-deepmind-
alphago-how-it-works/
• Alphago in
Depth :https://www.slideshare.net/ckmarkohchang/alphago
-in-depth
Reference