SlideShare a Scribd company logo
1 of 40
詳解ディープラーニング
輪読&勉強会
3章後半ニューラルネットワーク
2017/8/30
株式会社DTS 大田尾一作
1
Agenda
• 環境、教材等の説明
• 3章前半の復習(補足)
• 3.5. 多クラスロジスティック回帰
• p108-119
• 3.6. 多層パーセプトロン
• p119-131
• 3.7. モデルの評価
• p132-140
2
環境、教材等の説明
3
実施方針
• 数式の解説はしない
• なるべくJupyter Notebook(等)で動かしながら
• Visualize
4
環境構築
• Jupyter Notebook+TensorFlow+Matplotlib
• Keras(任意)
• Anacondaのターミナルで > pip install keras
(参考)
• Windows版Anaconda上でTensorFlow +Jupyter
Notebook + Matplotlib の環境構築(2017年8月版)
- Qiita
http://qiita.com/isaac-otao/items/cecfb3efb7d9ccddf922
→ http://bit.ly/JnbTf
5
本日の教材
• Githubにjupyter notebookファイルがあります
• https://github.com/isaac-otao/ai-
study/blob/master/neural_network_2nd_part.ipynb
→http://bit.ly/NN2nd
• Gitが使える方
• https://github.com/isaac-otao/ai-study をclone
• jupyter notebookを起動する作業ディレクトリでcloneす
るとわかりやすいです
• Gitが使えない方
• Jupyter Notebook Viewer(nbviewer) でDL(次頁)
6
Jupyter Notebook Viewer
(nbviewer)
• http://nbviewer.jupyter.org/
• GithubのnotebookページのURLを貼ってGO
• .ipynbファイルをDLできる→作業ディレクトリへ配置
7
(参考)筆者のサポートページ
• Githubに公開されています。
• https://github.com/yusugomori/deeplearning-
tensorflow-keras
• コードのファイル形式は.py
8
3章前半の復習(補足)
9
3.3. 単純パーセプトロン
p81
• モデル概略図(図3.9)
• モデル式(3.14)
𝑦 = 𝑓 𝑤1𝑥1 + 𝑤2𝑥2 + ・・・ + 𝑤𝑛𝑥𝑛 − 𝜃 (3.14)
𝑏 = −𝜃と置き換え、ベクトル𝑥 =
𝑥1
𝑥2
:
𝑥𝑛
、𝑤 =
𝑤1
𝑤2
:
𝑤𝑛
とすると
𝑦 = 𝑓(𝑤 𝑇
𝑥 + 𝑏) (3.16)
10
𝑤1
𝑤𝑘
𝑤𝑛
𝑥𝑛
𝑥𝑘
𝑥1
𝑦
:
:
3.3.2. 実装
p82
• 入力のニューロン数=2 (2次元)
• 発火しないデータ: 座標(0,0)付近
• 発火するデータ: 座標(5,5)付近
• 座標の横軸が𝑥1、縦軸が𝑥2 を表す
• モデル式:𝑦 = 𝑓(𝑤1𝑥1 + 𝑤2𝑥2 + 𝑏)
11
P83 図3.10
3.3.2. 実装(続き)
• p83のコード
• ↑このx1、x2は モデル式 𝑦 = 𝑓(𝑤1𝑥1 +
𝑤2𝑥2 + 𝑏) の𝑥1, 𝑥2とは別物
• コードのx1=座標(0,0)付近のグループ、x2=座標
(5,5)付近のグループ
→違う名前の方が分かりやすい
12
x1 = rng.randn(N, d) + np.array([0, 0])
x2 = rng.randn(N, d) + np.array([mean, mean])
x1
x2
3.3.2. 実装(続き)
• 変数名を分かりやすいものに変更
• X、W、b各変数の初期値を出力して中身を確認
• Matplotlibでデータの散布図と分類境界線を描画
↓
https://github.com/isaac-otao/ai-
study/blob/master/neural_network_1st_part.ipynb
13
xg0 = rng.randn(N, d) + np.array([0, 0])
xg1 = rng.randn(N, d) + np.array([mean, mean])
3.4. ロジスティック回帰
p88
• シグモイド関数(sigmoid):確率を出力する関数
• 出力が0~1の実数
• ステップ関数のかわりにシグモイド関数を使ったモデル
をロジスティック回帰(logisitic regression)という。
• 𝑦 = 𝑠𝑖𝑔𝑚𝑜𝑖𝑑(𝑤 𝑇
𝑥 + 𝑏)
14
3.4.3. 実装
• ORゲートの学習
• データ:[0,0]→0, [0,1]→1, [1,0]→1, [1,1]→1
• モデル: y = sigmoid( w1x1 + w2x2 + b)
• 学習結果:
• w [[ 3.61188436] [ 3.61188436]]
• b [-1.24509501]
15
3.61 𝑥1 + 3.61 𝑥2 − 1.24 = 0
↓
𝑥2 = −
3.61
3.61
𝑥1 +
1.24
3.61
3.5. 多クラスロジスティック回帰
p108-119
16
3.5.1. ソフトマックス関数
p108
• 2値分類(2クラス分類)
• ステップ関数 …出力:0か1
• シグモイド関数 …出力:0~1(確率) 実数(ス
カラー)
• 多クラス分類
• ソフトマックス関数 …出力:0~1(確率) ベクトル
17
(例)𝑠𝑖𝑔𝑚𝑜𝑖𝑑 𝑥 = 0.6532
(例)𝑠𝑜𝑓𝑡𝑚𝑎𝑥 𝑥 =
0.6532
0.2415
0.1053
3.5.1. ソフトマックス関数(続き)
p108
• クラス数=𝑛 y𝑖 = 𝑠𝑜𝑓𝑡𝑚𝑎𝑥 𝑥 𝑖
• (3.53) 𝑖=1
𝑛
𝑦𝑖 = 1
• (3.54) 0 ≤ 𝑦𝑖 ≤ 1 (𝑖 = 1,2, … , 𝑛)
↓
• softmax関数の結果は、各クラスの確率(0~1)を
表す(3.54)
• 各クラスの確率の合計は1(3.53)
18
3.5.1. ソフトマックス関数(続き)
p109 例
• クラス数=3
•
𝑦1
𝑦2
𝑦3
=
0.5761
0.2119
0.2119
• (3.54) 0 ≤ 𝑦𝑖 ≤ 1 (𝑖 = 1,2,3)
• (3.53) 𝑖=1
𝑛
𝑦𝑖 = 1 → 𝑦1 + 𝑦2 + 𝑦3 = 0.9999 ≒ 1
19
3.5.2. モデル化
p110
• 図3.18 モデル図示
• モデル式 𝑦 = 𝑠𝑜𝑓𝑡𝑚𝑎𝑥 𝑊𝑥 + 𝑏 (3.63)改
• 𝑥:M次元ベクトル (M,1)
• 𝑦:K次元ベクトル (K,1)
• 𝑊:重み行列 (K,M)
• 𝑏:バイアスベクトル (K,1)
…多クラスロジスティック回帰
20
𝑤11
𝑤𝐾𝑀𝑥𝑀
𝑥𝑚
𝑥1
𝑦𝐾
:
:
𝑦1
:
𝑦1
:
𝑦𝐾
=
𝑦
𝑥1
:
:
𝑥𝑀
𝑤11 .. .. 𝑤1𝑀
: : : :
𝑤𝐾1 .. .. 𝑤𝐾𝑀
𝑏1
:
𝑏𝐾
𝑏𝑥𝑤
+・
入力 出力
出力が複数
3.5.2. モデル化(続き)
p112
• 1-of-K表現
• N個の入力データ𝑥𝑛 (𝑛 = 1,2, … , 𝑁)
• それに対応する正解データ(ベクトル)𝑡𝑛
• 𝑥𝑛がクラス𝑘に属するとき、𝑡𝑛の𝑗番目の成分は
• 𝑡𝑛𝑗 =
1 (𝑗 = 𝑘)
0 (𝑗 ≠ 𝑘)
(3.65)
21
𝑥1
𝑥2
𝑥𝑛
:
𝑥𝑁
𝑡1( 0 0 1 )
𝑡2( 1 0 0 )
𝑡𝑛( 0 1 0 )
( : : : )
𝑡𝑁( 1 0 0 )
ク
ラ
ス
3
ク
ラ
ス
2
ク
ラ
ス
1 softmaxでは、
• 該当クラスが1
• それ以外が0
のベクトルを正解
データとして持たせる
3.5.3. 実装
p114
• 入力:2次元、出力:3クラス
• クラス1: 座標(0,10)付近
• クラス2: 座標(5,5)付近
• クラス3: 座標(10,0)付近
22
クラス1
クラス3
クラス2
3.5.3. 実装(続き)
p116
• 分類が正しいかを確認するには ~
• Softmaxの結果=各クラスの確率を示したベクトル
• 分類結果=Softmaxで一番確率が高いクラス
→Softmax結果ベクトルの最大値の要素(argmax)
23
0.1
0.3
0.6
クラス1
クラス2
クラス3
softmaxの
結果
0
0
1
実際の値(t)
クラス1
クラス2
クラス3
argmax
→index=2
argmax
→index=2
0
0
1
分類結果
比
較
3.5.3. 実装(続き)
P117
• ソフトマックス関数の中身が等しくなるところが境界となる
ので、例えばクラス1とクラス2の分類直線は
𝑤11𝑥1 + 𝑤12𝑥2 + 𝑏1 = 𝑤21𝑥1 + 𝑤22𝑥2 + 𝑏2 (3.76)
• 上記の式を 𝑥2 =.. の形で展開する。
• 𝑤12𝑥2 − 𝑤22𝑥2 = 𝑤21𝑥1 − 𝑤11𝑥1 + 𝑏2 − 𝑏1
• (𝑤12 − 𝑤22)𝑥2 = 𝑤21 − 𝑤11 𝑥1 + 𝑏2 − 𝑏1
• 𝑥2 =
𝑤21−𝑤11
(𝑤12−𝑤22)
𝑥1 +
(𝑏2−𝑏1)
(𝑤12−𝑤22)
• 同様にクラス2とクラス3の分類直線は
𝑤31𝑥1 + 𝑤32𝑥2 + 𝑏3 = 𝑤21𝑥1 + 𝑤22𝑥2 + 𝑏2
24
3.6. 多層パーセプトロン
p119-131
25
3.6.1. 非線形分類
p120
• Kクラス分類において、K-1本の直線で
• データを分離できる …線形分離可能
• データを分離できない …線形分離不可能
• 線形分離不可能なシンプルな例:XORゲート
• 少なくとも2本の直線が必要
26
0
1 0
1
𝒙𝟏 𝒙𝟐 𝒚
0 0 0
0 1 1
1 0 1
1 1 0
2クラス分類の場
合、1本の直線
(図3.22)改
𝑥1
𝑥2
(表3.7)
3.6.1. 非線形分類(続き)
p121~122
• 線形分類器(linear classifier):線形分類可能な問
題のみに対応したモデル
• 単純パーセプトロン
• ロジスティック回帰
• 基本ゲートを組み合わせることでXORゲートにも対
応可能
27
𝑊11
𝑊22𝑥2
𝑥1
𝑉2
𝑦
𝑊21
𝑊12
𝑉1
ℎ1
ℎ2
(図3.24)
3.6.1. 非線形分類(続き)
p123
• 多層パーセプトロン(MLP: Multi Layer Perceptron)
…入力と出力以外のニューロンがつながったモデ
ル
• 入力層(input layer)
• 出力層(output layer)
• 隠れ層(hidden layer) …入力と出力の中間にある層
28
3.6.2. モデル化
p124
• 入力層ー隠れ層
• 重み:𝑊、 バイアス:𝑏、 活性化関数:𝑓
• ℎ = 𝑓(𝑊𝑥 + 𝑏) (3.85)
• 隠れ層ー出力層
• 重み:𝑉、 バイアス:𝑐、 活性化関数:𝑔
• y = 𝑔(𝑉ℎ + 𝑐) (3.86)
29
𝑤11
𝑤𝐽𝐼𝑥𝐼
𝑥1
𝑉𝐾𝐽
𝑦𝑘
𝑉11ℎ1
ℎ𝐽
𝑥𝑖
𝑦1
𝑦𝐾
:
:
:
:
:
• 多クラス分類
→softmax
• 2クラス分類
→sigmoid
• sigmoidなど
入力層 隠れ層 出力層
(図3.25)
3.6.2. モデル化(続き)
p126-127
• 誤差逆伝播法(backpropagation)
• 出力層でモデルの出力と正解値の誤差(error、
𝛿1, . . , 𝛿𝐾)を求め、その誤差を用いて各ニューロンにつ
いて誤差を計算する
• 誤差を最小化するために勾配を計算する
• モデルの出力…入力層から出力層への順向きで計算
• 勾配計算…出力層から入力層への逆向きで計算
30𝑉𝐾𝑗
𝛿𝑘
𝑉1𝑗
𝛿𝑗
𝛿1
𝛿𝐾
:
:
:
隠れ層 出力層
:
𝑉𝑘𝑗
(図3.26)
3.6.3. 実装
p128
• データ:XOR
• X = np.array([[0, 0], [0, 1], [1, 0], [1, 1]])
• Y = np.array([[0], [1], [1], [0]])
31
(掲載なし)
3.6.3. 実装(続き)
p128
• モデル設定
32
データの
数
3.6.3. 実装(続き)
(記載なし)
• 学習結果
• 分類境界線
• ℎ1: −5.1900𝑥1 − 5.1902𝑥2 + 7.7254 = 0
• 𝑥2 = −0.99996𝑥1 + 1.4884
• ℎ2: −6.8839𝑥1 − 6.8854𝑥2 + 2.8705 = 0
• 𝑥2 = −0.99978𝑥1 + 0.4168
33
𝑥
𝑥1
𝑥2
ℎ
W=入力層の次元数×隠れ層の次元数
ℎ1 ℎ2
3.7. モデルの評価
p132-140
34
3.7.1. 分類から予測へ
p132
• 実社会で扱うデータ=複雑、異常値、ノイズetc
→100%分類できない。 最も「よい」分類とは?
• 「よい」分類=データが持つ真のパターンを見つけ
出せている
• やりたいこと:今あるデータを分類できる→新たな
データが与えられたときに正しく分類できる
• ニューラルネットワークにおける学習:データの分
類(だけ)でなく、データが持つ真のパターンを予測
することを表す。
35
3.7.2. 予測の評価
P133
• 2つのデータセットを用意する
• 訓練データ(training data) …モデルの学習に使う
• テストデータ(test data) …モデルのよさを評価する
• 実際には、与えられたデータを訓練データとテストデー
タに(ランダム)分割して使用することが多い。
• 実施手順
① 全データを訓練データとテストデータに分割
② 訓練データで学習
③ テストデータで評価
36
3.7.2. 予測の評価(続き)
p134
• 評価指標
• 正解率(accuracy) …全体で予測と実際が的中している率
• 適合率(precision) …発火と予測したうち的中している率
• 再現率(recall) …実際に発火したうち的中している率
• 混合行列
37
出力した値 (予測値):y
y=1 (発火する) y=0 (発火しない)
実際の値:t t=1 (発火する) TP
True Positive
FN
False Negative
t=0 (発火しない) FP
False Positive
TN
True Negative
positive
accuracy =
TP + TN
TP + FN + FP + TN
precision =
TP
TP + FP
recall =
TP
TP + FN
negative
precision
recall
3.7.3. 簡単な実験
p135
• データセット:月形の2クラスデータ(scikit-learnで
提供されているサンプルデータセット)
• 訓練データとテストデータに8:2で分割
38
(図3.29)
3.7.3. 簡単な実験(続き)
p138
• 隠れ層の次元数(ノード数)=2の場合
• accuracy: 0.883333
• 隠れ層の次元数(ノード数)=3の場合
• accuracy: 0.933333
39
3.8. まとめ
p140
• ニューラルネットワークのモデルの学習の流れ
① モデルの出力を式で表す
② 誤差関数を定義する
③ 誤差関数を最小化すべく、各パラメータに対する勾配
を求める
④ 確率的勾配降下法により最適なパラメータを探索す
る
40

More Related Content

What's hot

PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...yukihiro domae
 
Let's Go Developer 2011 - Clustering
Let's Go Developer 2011 - ClusteringLet's Go Developer 2011 - Clustering
Let's Go Developer 2011 - ClusteringYasunori Mahata
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelssleepy_yoshi
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」Keisuke Sugawara
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来Hidekazu Oiwa
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMMMorpho, Inc.
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習Masayuki Tanaka
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2hirokazutanaka
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)narumikanno0918
 
blockCoupledSwirlTestチュートリアル
blockCoupledSwirlTestチュートリアルblockCoupledSwirlTestチュートリアル
blockCoupledSwirlTestチュートリアルFumiya Nozaki
 
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionShintaro Takemura
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifoldyukihiro domae
 
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature FilterMorpho, Inc.
 
コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)Masaya Kaneko
 

What's hot (20)

PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recog...
 
確率プロット
確率プロット確率プロット
確率プロット
 
Let's Go Developer 2011 - Clustering
Let's Go Developer 2011 - ClusteringLet's Go Developer 2011 - Clustering
Let's Go Developer 2011 - Clustering
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM(文献紹介) 画像復元:Plug-and-Play ADMM
(文献紹介) 画像復元:Plug-and-Play ADMM
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
blockCoupledSwirlTestチュートリアル
blockCoupledSwirlTestチュートリアルblockCoupledSwirlTestチュートリアル
blockCoupledSwirlTestチュートリアル
 
PRML 4.1 Discriminant Function
PRML 4.1 Discriminant FunctionPRML 4.1 Discriminant Function
PRML 4.1 Discriminant Function
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
Learning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data ManifoldLearning Depthwise Separable Graph Convolution from Data Manifold
Learning Depthwise Separable Graph Convolution from Data Manifold
 
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
(文献紹介)エッジ保存フィルタ:Side Window Filter, Curvature Filter
 
コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)コンピュータ先端ガイド2巻3章勉強会(SVM)
コンピュータ先端ガイド2巻3章勉強会(SVM)
 

Similar to 詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク

Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
how-calculate-cluster-coefficience
how-calculate-cluster-coefficiencehow-calculate-cluster-coefficience
how-calculate-cluster-coefficienceNorihiro Shimoda
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)tn1031
 
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...Toru Tamaki
 
第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)RCCSRENKEI
 
Deep learning basics described
Deep learning basics describedDeep learning basics described
Deep learning basics describedNaoki Watanabe
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回ke beck
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章Shoichi Taguchi
 
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learninglispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep LearningSatoshi imai
 
非同期処理の基礎
非同期処理の基礎非同期処理の基礎
非同期処理の基礎信之 岩永
 
AVX命令を用いたLJの力計算のSIMD化
AVX命令を用いたLJの力計算のSIMD化AVX命令を用いたLJの力計算のSIMD化
AVX命令を用いたLJの力計算のSIMD化Hiroshi Watanabe
 
Intel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86optiIntel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86optiTakashi Hoshino
 
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video RecognitionToru Tamaki
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
Spmv9forpublic
Spmv9forpublicSpmv9forpublic
Spmv9forpublicT2C_
 
【Unity道場スペシャル 2017京都】乱数完全マスター 京都編
【Unity道場スペシャル 2017京都】乱数完全マスター 京都編【Unity道場スペシャル 2017京都】乱数完全マスター 京都編
【Unity道場スペシャル 2017京都】乱数完全マスター 京都編Unity Technologies Japan K.K.
 
PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介Satoshi Hirata
 

Similar to 詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク (20)

Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
how-calculate-cluster-coefficience
how-calculate-cluster-coefficiencehow-calculate-cluster-coefficience
how-calculate-cluster-coefficience
 
3.3節 変分近似法(前半)
3.3節 変分近似法(前半)3.3節 変分近似法(前半)
3.3節 変分近似法(前半)
 
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
文献紹介:Deep Analysis of CNN-Based Spatio-Temporal Representations for Action Re...
 
第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)第5回 配信講義 計算科学技術特論B(2022)
第5回 配信講義 計算科学技術特論B(2022)
 
Deep learning basics described
Deep learning basics describedDeep learning basics described
Deep learning basics described
 
M1 gp_Disco
M1 gp_DiscoM1 gp_Disco
M1 gp_Disco
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
統計的学習の基礎_3章
統計的学習の基礎_3章統計的学習の基礎_3章
統計的学習の基礎_3章
 
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learninglispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learning
 
非同期処理の基礎
非同期処理の基礎非同期処理の基礎
非同期処理の基礎
 
AVX命令を用いたLJの力計算のSIMD化
AVX命令を用いたLJの力計算のSIMD化AVX命令を用いたLJの力計算のSIMD化
AVX命令を用いたLJの力計算のSIMD化
 
Intel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86optiIntel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86opti
 
optimal Ate pairing
optimal Ate pairingoptimal Ate pairing
optimal Ate pairing
 
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
文献紹介:X3D: Expanding Architectures for Efficient Video Recognition
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
Spmv9forpublic
Spmv9forpublicSpmv9forpublic
Spmv9forpublic
 
【Unity道場スペシャル 2017京都】乱数完全マスター 京都編
【Unity道場スペシャル 2017京都】乱数完全マスター 京都編【Unity道場スペシャル 2017京都】乱数完全マスター 京都編
【Unity道場スペシャル 2017京都】乱数完全マスター 京都編
 
PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介PostgreSQL13 新機能紹介
PostgreSQL13 新機能紹介
 

詳解 ディープラーニング輪読&勉強会 3章後半ニューラルネットワーク