SlideShare a Scribd company logo
1 of 30
Download to read offline
#はじパタ  LT

実装  ディープラーニング

@0kayu
1
紹介


岡  右⾥里里恵  (早⼤大理理⼯工M1)    



出⾝身、住まい等          横浜



趣味  映画鑑賞,  シンセ  /  kaggle歴  3ヶ⽉月      



好きな物  redbullと最近はドクペ



@0kayu

研究    脳画像を⽤用いた診断補助法の開発

2
DEEP LEARNING
1.  Deep  Learning  の  仕組み スライド	
  がたくさん!	
  
2.  Deep  Learning  パラメータ/学習法  について
3.  実装:  パッケージ調べ  ←	
  今日はこれ!!!!!!!!!!!

ディープラーニングをもっと、もっと手軽に

3
1. ディープラーニング概要(1)
ディープラーニング?

画像認識を例にして....

従来法

ディープ
ラーニング

h'p://www.slideshare.net/kazoo04/deep-­‐learning-­‐15097274
4
1. ディープラーニング概要(1)
ディープラーニングの定義(諸説あり)
以下を満足するDeep	
  Architecture
・多層構造をもつ
・階層的な処理理である
・⾼高位の問題解決を⽬目的とする

5
1. ディープラーニング概要(2)
プレトレーニング  +  ファインチューニング

各層の●,●,●は
入力データ●の特徴量を表す

http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/
CVIM_tutorial_deep_learning.pdf

6
1. ディープラーニング概要(2)

判別器

プレトレーニング  +  ファインチューニング

SVM,  LR,  ...  etc

AE(3)
AE(2)
AE(1)

教師無し学習器群
AE:オートエンコーダー
RBM:制限ボルツマンマシン

http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/
CVIM_tutorial_deep_learning.pdf

DBM,	
  stacking	
  AE

DBN,	
  stacking	
  AE

7
制約つきボルツマンマシン(RBM)
•  ⽣生成モデルの1つ
生成モデルの学習方法

vi,  hj  は{0,1}をとる
h/p://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf
8
RBM +

DeepStructure

制約つきボルツマンマシン(RBM)

可視層と隠れ層からなる2層ネット
ワーク

判別器

DBN(Deep	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Belief	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Network)

RBM(3)
RBM(2)

DBM(Deep	
  
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Boltzma
	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  Machine)

RBM(1)
vi, hj	
  =	
  {0,1}

入力データ
9
RBM +

DeepStructure

+

max	
  pooling

ConvDBN	
  (ConvoluFonal	
  Belief	
  Network)	
  
RBMに畳み込みニューラル

ネットで使われるmax	
  pooling
を追加したもの

http://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf

10
オートエンコーダー(AE)
  AE  (オートエンコーダー)
⼊入⼒力力データを再現するような[表現h,  encoder,  decoder]  を学習する
  dAE(denoising  Auto  Encoder)
ノイズを加えたデータで学習させる
  スパースオートエンコーダー  
出⼒力力層がスパースになるように正規化したもの
y(=x)

h
入力データ
x

Decoder

y = f ´(W´h)

スパースオートエンコーダーでは次の
評価関数を最小化する

Encoder

h = f (Wx)
正規化項
11
AE

+

DeepStructure

Stacked  Auto  Encoder
学習した表現yを、次の層のオートエンコーダーの⼊入⼒力力とする
AE(2)の入力データ

y(=x)

h
AE(2)の入力データ

入力データ
x

レイヤー1(AE1)

レイヤー2(AE2)

12
2. 各層の学習法について
基本    バッチ学習  +  確率率率的勾配法  (SGD)  
バッチ学習  :  全データで学習
確率率率的勾配法(SGD)  :  t個⽬目のサンプルだけを⽤用いて重みが更更新可能
→  データをミニバッチに分け、ミニバッチごとに重みを更更新
→  学習の⾼高速化  !  
バッチ関連のパラメータ
ミニバッチサイズ

データを分割する量量。分割したデータ(バッチ)を⽤用いて学習させる。

バッチ毎の学習

バッチを学習させて、バッチごとにパタメータを更更新

モニター数(⇔速度度に影響)

すべてのバッチのうち、⼀一部のバッチのみvalidationをしてモデルが学習できているか確認す
る

max_̲epoch

1つのデータを何回(何epoch)繰り返して学習させるか
13
2. パラメータについて
1.  機械全体の形
  レイヤーの数
  教師無し学習器(モデル)の選択
  判別器の選択

太字  =  「特に重要なパラメータ」

2.  各層のモデルのパラメータ
  隠れ層のユニット数
  重みの正規化
  ユニットのスパース化
  活性化関数の選択

3.  最適化のためのパラメータ
  学習⽅方法
  学習率率率  (初期値,  減衰)
  ミニバッチサイズ
  イテレーション回数
  Momentum

4.  その他  

  重みの初期化  (のスケール)
  乱数
  前処理理

おすすめの参考スライド http://www.slideshare.net/koji_matsuda/practical-recommendationfordeeplearning
14
3. 実装 : 現状の関連コード比較
pylearn2
python
+theano

元の言語

Torch7

Lua

python
numpy+scipy

nolearn deepnet
python
+ sklearn

△

導入しやすさ(mac)

ディープラーニン RBM, DBN, AE,
MLP, Maxout
グの種類等

ー

python
+ gnumpy
ー

RBM, AE,
DBN

DBN, RBM

RBM, AE, DBM,
DBN, CNN, feedforward NN

ー

GPU計算
とっつきやすさ

入力データの準備
特徴

sugomori
さん

△
△
種類が豊富, 画
像の可視化

ー

ー

ー
matlab
ライク

ー

Java版あり,

オプションが

ー
GPU計算が前提

多いsklearn風
シンプル
pylearn2	
  	
  http://deeplearning.net/software/pylearn2/index.html
DL先→ torch7	
  	
  	
  	
  	
  	
  http://www.torch.ch/manual/install/index
sugomori	
  	
  http://blog.yusugomori.com/post/42424440144/pythondeep-learning-stacked-denoising
nolearn	
  	
  	
  	
  h'ps://github.com/dnouri/nolearn	
  or	
  pip	
  install	
  nolearn
deepnet	
  	
  	
  h'ps://github.com/niQshsrivastava/deepnet

15
1.  pylearn2

市民権争い pylearn2 VS torch7

  利利点
-‐‑‒  Benjio先⽣生(先のスライドの原著)  の最新のアルゴリズムが実装されて
いる  (Maxout等)
-‐‑‒  市⺠民権の獲得に積極的  (kaggleのベンチマーク)
-‐‑‒  実装の⾒見見た⽬目は綺麗麗,  評価を下すのにmonitor.py  がなかなか使える
-‐‑‒  設定をエディットしやすい
  ⽋欠点

-‐‑‒    データ構造が⽞玄⼈人向け、慣れれば快適...??
-‐‑‒    公式HPのチュートリアルやドキュメントが開発途中
-‐‑‒    pylearn2のgoogle  groups等を追う姿勢が⼤大事

16
1.  pylearn2

DL実装の流れ@pylearn2(1)
layer_̲1.yaml

1層⽬目学習
train	
  =	
  yaml_parse.load(layer1_yaml)
train.main_loop() **
dae_l1.pkl

layer_̲2.yaml

2層⽬目学習
train	
  =	
  yaml_parse.load(layer2_yaml)
train.main_loop()
dae_l2.pkl

mlp.yaml

判別器学習
train	
  =	
  yaml_parse.load(mlp_yaml)
train.main_loop()
mlp_best.pkl

簡単3ステップ+α
STEP1:	
  データをpylearn2のデータ形式で登録
(ベンチマーク系は既に登録済み)

STEP2:	
  YAMLファイル形式(テンプレあり)で、
   train{入力データ,学習器,学習法}を指定
STEP3:	
  train.pyに作った	
  *.yamlを放り込む
STEPα:	
  モニター結果から学習できてるか判断

**:	
  $	
  train.py	
  layer_1.yaml	
  でも可

17
1.  pylearn2

DL実装の流れ@pylearn2(1)

前準備
インストール時にあらかじめ{PYLEARN2_DATA_PATH}にdataの保存場所のパスを
通しておく

ベンチマークを用意するには
${PYLEARN2_DATA_PAHT}/mnist/以下にMNISTデータを入れておく.
dataset.pyを作る必要はない

自分のデータを用意するには
例 : kaggleのicml_2013_emotionsをデータとして登録
1. dataset.py を作成
.csvの場合はemotion_dataset.py が参考になる。
2. ${PYLEARN2_DATA_PATH}/icml_2013_emotions
を作成し、中にデータをいれる
18
1.  pylearn2

DL実装の流れ@pylearn2(2)

2層目の学習で、train.pyに与えるYAMLファイルの例
!obj:pylearn2.train.Train {
dataset: &train !obj:pylearn2.datasets.transformer_dataset.TransformerDataset {
raw: !obj:pylearn2.datasets.mnist.MNIST {
1.	
  入力データ:	
  
which_set: 'train',
start: 0,
#データのうち0から50000を学習
TransformerDataset(MNIST)
stop: 50000
},
transformer: !pkl: "./dae_l1.pkl"
},
model: !obj:pylearn2.models.autoencoder.DenoisingAutoencoder {
nvis : 500, #visible layerの次元
2.	
  学習器	
  :	
  Denoising	
  Autoencoder
nhid : 500, #hidden layerの次元
irange : 0.05,
corruptor: !obj:pylearn2.corruption.BinomialCorruptor {
corruption_level: .3, #ノイズの程度
},
act_enc: "tanh",
act_dec: null,
# Linear activation on the decoder side.
},
algorithm: !obj:pylearn2.training_algorithms.sgd.SGD {
learning_rate : 1e-3, #学習率
3.	
  学習法:	
  StochasQcGradient	
  Descent
batch_size : 100,
#バッチサイズ(100データごとに学習)
monitoring_batches : 5,
#モニターするバッチの数
monitoring_dataset : *train,
cost : !obj:pylearn2.costs.autoencoder.MeanSquaredReconstructionError {},
termination_criterion : !obj:pylearn2.termination_criteria.EpochCounter {
max_epochs: 10,
},
},
save_path: "./dae_l2.pkl",
save_freq: 1
}

19
1.  pylearn2

DL実装の流れ@pylearn2(3)

評価例	
  	
  	
  
$	
  print_monitor.py	
  <学習して出力した	
  *.pkl>	
  や	
  summarize_model.py	
  *.pkl
epochs	
  seen:	
  	
  10
Qme	
  trained:	
  	
  141.956558943
learning_rate	
  :	
  0.001
monitor_seconds_per_epoch	
  :	
  11.0
objecQve	
  :	
  11.414127059

$	
  plot_monitor.py	
  	
  <学習して出力した	
  *.pkl	
  >

→	
  デモ

	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  	
  

20
1.  pylearn2

DL実装の流れ@pylearn2(4)

重みの可視化について
○	
  学習器にオートエンコーダーを用いた場合
一層目	
  →	
  show_weights.py
二層目→	
  	
  ×	
  

○	
  学習器にRBMを用いた場合
一層目→	
  show_weights.py

$:	
  show_examples.py	
  	
  データ.yaml

二層目→	
  top_filters.py	
  

○	
  各層の重みの値
layer	
  =	
  parse.load(“モデル名.pkl”)
W	
  =	
  layer.weights()

$:	
  show_weights.py	
  1層目のモデル.pkl	
  -­‐-­‐out=”hoge.png”
21
1.  pylearn2

pylearn2を今からはじめるには

公式のドキュメント  +  script以下のコードのコメントから学ぶ
  ディープラーニングの知識識をコードから学びたい
→  pylearn2の前⾝身の    http://deeplearning.net/tutorial/
→  pylearn2/srcripts/tutorials/*.ipynb      :  数式や⽂文章付きで学べる
  ええい!とにかく試してみたい!かじりたい!
→  pylearn2/scripts/tutorials/stacked_̲autoencoders.ipynb
→  pylearn2/scripts/tutorials/dbm_̲demo/rbm.yaml
  kaggleに殴り込みをしようと思うんだが...  
  ⼿手持ちのデータをさくっとディープラーニングできないかな~∼
→  pylearn2/scripts/icml_̲2013_̲wrepl/emotions/
22
2.  その他のpython系パッケージ

  特徴

-‐‑‒  Theanoを覚えるのが⼤大変なあなたに
-‐‑‒  インストールが簡単,
-‐‑‒  SGD/RBM/dA      多値ロジスティック回帰    が使⽤用可能
-‐‑‒  sparse.matrix  に対応していないので、⼤大規模疎⾏行行列列は扱えない
-‐‑‒  少量量のデータならばnumpy+scipyのほうがてっとり早い
-‐‑‒  速度度はpylearn2と⼤大きく変わらない  (CPU計算の場合)

23
2.  numpy+scipy

numpy+scipy(使用例)
全体の構造を作成

プレトレーニング

24
3.  nolearn

nolearn使い方(1) インストール	
  は、$	
  pip	
  install	
  nolearn

h'p://packages.python.org/nolearn/
25
3.  nolearn

nolearn使い方(2)

26
3.  nolearn

nolearn使い方(3)

27
ありがとうございました

28
参考文献等
ディープラーニングチュートリアル

h$p://www.vision.is.tohoku.ac.jp/files/9313/6601/7876/CVIM_tutorial_deep_learning.pdf

第7章 パーセプトロン型学習規則 #はじパタ
http://www.slideshare.net/Tyee/f5up

自然言語処理まわりのDeep Learningを自分なりにまとめてみた
http://kiyukuta.github.io/2013/09/28/casualdeeplearning4nlp.html

機械学習におけるオンライン確率的最適化の理論
http://www.slideshare.net/trinmu/stochasticoptim2013
Practical recommendations for gradient-based training of deep architectures ~Benjio先生のおすすめレシピ~

http://www.slideshare.net/koji_matsuda/practical-recommendation-fordeeplearning

深層学習
http://sugiyama-www.cs.titech.ac.jp/ sugi/2007/Canon-MachineLearning30-jp.pdf
Pythonとdeep learningで手書き文字認識
http://www.slideshare.net/mokemokechicken/pythondeep-learning

29
パッケージまとめ
◎	
  	
  	
  pylearn2
h$p://deeplearning.net/soHware/pylearn2/

◎	
  	
  	
  deeplearning	
  Tutorial
h$p://deeplearning.net/tutorial/

◎	
  	
  	
  Torch7
h$p://torch.ch

◎	
  	
  	
  nolearn
h$ps://github.com/dnouri/nolearn

◎	
  	
  	
  deepnet
h'ps://github.com/niQshsrivastava/deepnet
◎	
  	
  	
  sugomiriさん

http://blog.yusugomori.com/post/42424440144/python-deep-learning-stacked-denoising

30

More Related Content

What's hot

【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? Deep Learning JP
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論Deep Learning JP
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話Yusuke Uchida
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験克海 納谷
 
最適化超入門
最適化超入門最適化超入門
最適化超入門Takami Sato
 
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action DiffusionDeep Learning JP
 
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain GeneralizationDeep Learning JP
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
カルマンフィルタ入門
カルマンフィルタ入門カルマンフィルタ入門
カルマンフィルタ入門Yasunori Nihei
 
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptxARISE analytics
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイDeep Learning JP
 
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピTakahiro Kubo
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Masaya Kaneko
 
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...Deep Learning JP
 

What's hot (20)

【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks? 【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
 
Lucas kanade法について
Lucas kanade法についてLucas kanade法について
Lucas kanade法について
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
 
強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
【DL輪読会】Diffusion Policy: Visuomotor Policy Learning via Action Diffusion
 
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
[DL輪読会]Learning to Generalize: Meta-Learning for Domain Generalization
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
カルマンフィルタ入門
カルマンフィルタ入門カルマンフィルタ入門
カルマンフィルタ入門
 
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
【論文読み会】BEiT_BERT Pre-Training of Image Transformers.pptx
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
 
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)Neural scene representation and rendering の解説(第3回3D勉強会@関東)
Neural scene representation and rendering の解説(第3回3D勉強会@関東)
 
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
【DL輪読会】Foundation Models for Decision Making: Problems, Methods, and Opportun...
 

Similar to 実装ディープラーニング

ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎kunihikokaneko1
 
Paper intoduction "Playing Atari with deep reinforcement learning"
Paper intoduction   "Playing Atari with deep reinforcement learning"Paper intoduction   "Playing Atari with deep reinforcement learning"
Paper intoduction "Playing Atari with deep reinforcement learning"Hiroshi Tsukahara
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Kotaro Nakayama
 
Getting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaGetting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaTaisuke Oe
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さんAkira Shibata
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件Study Group by SciencePark Corp.
 
テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門ShinichiroSaito
 
チュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニングチュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニングDaisukeTakao
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門TanUkkii
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイドEtsuji Nakai
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習Motoya Wakiyama
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127Natsutani Minoru
 
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習Masanari Kimura
 

Similar to 実装ディープラーニング (16)

ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎ae-3. ディープラーニングの基礎
ae-3. ディープラーニングの基礎
 
Paper intoduction "Playing Atari with deep reinforcement learning"
Paper intoduction   "Playing Atari with deep reinforcement learning"Paper intoduction   "Playing Atari with deep reinforcement learning"
Paper intoduction "Playing Atari with deep reinforcement learning"
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
 
Getting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaGetting Started with Deep Learning using Scala
Getting Started with Deep Learning using Scala
 
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
大規模言語モデル開発を支える分散学習技術 - 東京工業大学横田理央研究室の藤井一喜さん
 
Tokyo r30 beginner
Tokyo r30 beginnerTokyo r30 beginner
Tokyo r30 beginner
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
新入社員の俺がDeepLearningのコードを書いてみたら神検出率だった件
 
テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門テーブルコンペと比べて分かる画像コンペ入門
テーブルコンペと比べて分かる画像コンペ入門
 
チュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニングチュートリアル:細胞画像を使った初めてのディープラーニング
チュートリアル:細胞画像を使った初めてのディープラーニング
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127
 
Tokyo r38
Tokyo r38Tokyo r38
Tokyo r38
 
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習
 

実装ディープラーニング