SlideShare a Scribd company logo
1 of 21
Download to read offline
第7章

パーセプトロン型学習規則
P96
@zaoriku0
目次
7・1 パーセプトロン
-パーセプトロンの学習規則
-学習の難しさの尺度
-パーセプトロンの収束定理

7・2 誤差逆伝搬法
-多層パーセプトロン
-誤差逆伝搬法の学習規則

7・3 誤差逆伝搬法の学習特性
-初期値依存性
-隠れ素子の数
-過学習と正則化
-学習回路の尤度
多層パーセプトロン
i番目の入力
𝑥𝑖

𝑛

j番目の素子

K番目の出力
𝑉𝑗 𝑛

𝑑個

𝑜 𝑘𝑛

𝑀個
𝑀

𝑑

ℎ 𝑗𝑛

=

𝑤 𝑗𝑖 𝑥 𝑖

𝑛

𝑛
𝑘

ℎ =
j=0

𝑖=0

𝑉𝑗 𝑛 = 𝑔( ℎ 𝑗𝑛 )

i=0 バイアス項
J=0 バイアス項

𝑤 𝑘𝑗

𝑉𝑗 𝑛

𝑜 𝑘𝑛 = 𝑔 ( ℎ 𝑘𝑛 )

𝑉𝑗

𝑛

𝑔

𝑜 𝑘𝑛

=

exp 𝑜 𝑘𝑛
𝑛
𝐾
𝑙=1 exp 𝑜 𝑙

ソフトマックス
基本はケツも
シグモイド関数
多層パーセプトロン
i番目の入力
𝑥𝑖

𝑛

j番目の素子

素子jの重みwji
(j:0 ~ M)

K番目の出力
𝑉𝑗 𝑛

𝑜 𝑘𝑛
入力xi
(i:0 ~ d)

𝑑個

𝑀個
𝑀

𝑑

入力は普通シグモイドを
通さない

ℎ 𝑗𝑛

=

𝑤 𝑗𝑖 𝑥 𝑖

𝑛

𝑛
𝑘

ℎ =
j=0

𝑖=0

𝑉𝑗 𝑛 = 𝑔( ℎ 𝑗𝑛 )

wj=0 バイアス項
wk=0 バイアス項

𝑤 𝑘𝑗

𝑉𝑗 𝑛

𝑜 𝑘𝑛 = 𝑔 ( ℎ 𝑘𝑛 )

𝑉𝑗

𝑛

𝑔

𝑜 𝑘𝑛

=

exp 𝑜 𝑘𝑛
𝑛
𝐾
𝑙=1 exp 𝑜 𝑙
7・2・2 誤差逆伝搬法の学習規則(ラメルハートら)
ポイント
・多層パーセプトロンの拡張
w を学習する

-出力誤差から

教師信号(t)と出力(o)の誤差
Error back propagation
出力関数にシグモイド関数を使用するのが有名
(出力を0~1にする)

𝑑

𝑉𝑗 𝑛 = 𝑔( ℎ 𝑗𝑛 )

ℎ 𝑗𝑛 =

𝑤 𝑗𝑖 𝑥 𝑖 𝑛
𝑖=0

同時座標系
(i=0がバイアス)

p.106
7・2・2 誤差逆伝搬法の学習規則
誤差の評価関数
1
𝐸 𝑛 (𝑤) =
2

教師信号

出力信号

𝐾

( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )2
𝑘=1

(7.13)

n番目の学習データ使用

・バッチ学習
・オンライン学習

i

j

k
7・2・2 誤差逆伝搬法の学習規則
誤差の評価関数
1
𝐸 𝑛 (𝑤) =
2

教師信号

出力信号

誤差の評価関数(学習データ全体)
バッチアルゴリズム

𝐾

(
𝑘=1

𝑡 𝑘𝑛

−

𝑜 𝑘𝑛 )2

𝐸(𝑤) =
(7.13)

1
2

例:τエポック目

𝑁

𝐸 𝑛 (𝑤)
𝑛=1

n番目の学習データ使用

・バッチ学習
・オンライン学習

・全データで学習する!
・一回でΔwを更新する

1エポック:
学習データ全体を用い
て修正量を計算、更新

(7.14)
7・2・2 誤差逆伝搬法の学習規則
誤差の評価関数
1
𝐸 𝑛 (𝑤) =
2

教師信号

出力信号

1エポック:
学習データ全体を用い
て修正量を計算、更新

誤差の評価関数(学習データ全体)
バッチアルゴリズム

𝐾

(

𝑡 𝑘𝑛

−

𝑜 𝑘𝑛 )2

𝑘=1

𝐸(𝑤) =
(7.13)

1
2

例:τエポック目

𝑁

𝐸 𝑛 (𝑤)
𝑛=1

(7.14)
シグモイド関数の微分は、元
の関数で表現可能
p106

n番目の学習データ使用
1エポックの変化量を
出すのに全Eを回している?

𝑜 𝑘𝑛 = 𝑔 ( ℎ 𝑘𝑛 )

出力素子の結合係数の更新
𝑤 𝒌𝑗(τ+1) = 𝑤 𝒌𝑗(τ) + Δ𝑤 𝒌𝑗(τ)

𝑁

Δ𝑤 𝒌𝑗(τ) =
𝑛=1

𝑛
δ 𝑘 (τ)

𝜕𝐸 𝑛 (𝑤)
−η
𝜕𝑤 𝒌𝑗

𝑁

𝑉𝑗 𝑛

( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )
𝑛=1

𝑔

外側の微分

=η

ℎ 𝑘𝑛

中身の微分

(7.15)

隠れ素子の結合係数の更新も同様
𝑤 𝒋𝑖(τ+1) = 𝑤 𝒋𝑖 (τ) + Δ𝑤 𝒋𝑖(τ)

𝑁

Δ𝑤 𝒋𝑖(τ) =

−η
𝑛=1

𝜕𝐸 𝑛 (𝑤)
𝜕𝑤 𝒋𝑖

𝑁

𝐾

𝑛
δ 𝑘 (τ)

( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )

=η

𝑔

ℎ 𝑘𝑛

𝑤 𝒌𝑗 𝑔

𝑛=1 𝑘=1

(7.16)

ℎ 𝑗𝑛

𝑥 𝑖𝑛
7・2・2 誤差逆伝搬法の学習規則
確率降下法(SGD?)(オンライン学習)

最急降下法、サンプルをランダムに取って学習

学習データごとにwを逐次更新
出力の重みの修正量

N番目の学習データによるwkjの修正量
𝑛
𝑛
Δ𝑤 𝒌𝑗 (τ) = ηδ 𝑘 (τ) 𝑉𝑗 𝑛 (τ)

(7.16)
𝑛
δ 𝑘 出力の誤差信号 ( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )

N番目の学習データによるwjiの修正量
Δ𝑤 𝑗 𝑛𝑖 (τ) = ηδ 𝑗𝑛 (τ) 𝑥 𝑖 𝑛 (τ)

ℎ 𝑘𝑛

𝑔

隠れ素子の重みの修正量
(7.20)

δ 𝑗𝑛 隠れ素子j の誤差信号

𝐾

𝑔

ℎ 𝑗𝑛

𝑛
δ 𝑘 (τ) 𝑤 𝒌𝑗 (7.18)
𝑘=1

-数十~100程度の訓練データから勾配求めることが多いらしい
-バッチとオンラインの性能差?
バッチはメモリ食う! マルチコアのマルチスレッドで分散して計算するとよい。

ミニバッチ法:SGD
(AI学会誌vol.28)
7・2・2 誤差逆伝搬法の学習規則
確率降下法(オンライン学習)
学習データごとにwを更新

出力の重みの修正量

N番目の学習データによるwkjの修正量
𝑛
𝑛
Δ𝑤 𝒌𝑗 (τ) = ηδ 𝑘 (τ) 𝑉𝑗 𝑛 (τ)

(7.16)
𝑛
δ 𝑘 出力の誤差信号 ( 𝑡 𝑘𝑛 − 𝑜 𝑘𝑛 )

ℎ 𝑘𝑛

𝑔

隠れ素子の重みの修正量

N番目の学習データによるwjiの修正量
Δ𝑤 𝑗 𝑛𝑖 (τ) = ηδ 𝑗𝑛 (τ) 𝑥 𝑖 𝑛 (τ)

(7.20)
𝐾

δ 𝑗𝑛 隠れ素子j の誤差信号

𝑔

ℎ 𝑗𝑛

𝑛
δ 𝑘 (τ) 𝑤 𝒌𝑗 (7.18)
𝑘=1

Δ𝑤 𝑗𝑘 (τ) = η

𝑁
δ 𝑗𝑛 𝑥 𝑘𝑛
𝑛=1

出力から隠れ層への変化量

出力の誤差信号δkをwkを介して
隠れ層jにもどしている

出力をxで表現してる

(7.19) 但し、この式はバッチアルゴ

BP法と呼ばれる
(誤差逆伝播法)
実行例7.1 手書き数字データの学習

p57、p107下
入力:16x16+1(256+1)
隠れ層:10+1
出力:10個
学習データ:各数字650個
テストデータ:他の650個
平均誤識別率:3.1%
5の誤り:44個

入力:8x8x8+1(512+1)
隠れ層:12+1(最適)
出力:10個
学習データ:各数字650個
テストデータ:他の650個
認識率:99%超え
5の誤り:6個
7・3 誤差逆伝搬法の学習特性(学習)
7.3.1 初期依存性

どうつくればいいかの研究もある

p.108

・最適解に行くかどうかは、wの初期値で決まる
・最急降下法、共役勾配法

よくないケース
最急降下法

共役勾配法
http://d.hatena.ne.jp/Zellij/20120712/p1
7.3.3 過学習と正則化

p.109

過学習
・隠れ素子jの数 ↑
・結合係数wの値 ↑ でも起こる

正則化

加重減衰ペナルティ

誤差の評価関数に、結合係数が大きくなりすぎないようペナルティをかける
隠れ層

正則化パラメータ

出力層の重みの修正量

出力層
7.3.2 隠れ素子の数

p.109

学習データで
もう一回テスト

学習データ以外のデータ
でテスト
悪くなっていく
ノイズにも適合するため
(過学習)

良くなっていく

b=3
が良い

最適な素子数は以下
で求める
・ホールドアウト法
・交差確認法
Rで学ぶマシンラーニング
にもっと書いてある

Pima.tr データセット
糖尿病の有無で二群
変数:血圧、BMIなど

参考p12,13
7.3 正則化項の効果(アヤメデータ)

p.110

・出力素子の出力0.5 太線
・出力素子の出力0.01 点線
β = 1(β=10に近い)

β = 1(β=0.5に近い)

学習の進みが遅い
結合係数が小さい
⇒図7.15

正則化パラメータ

隠れ素子数10
7.3.4 隠れ層の数と識別能力

p.112
7.3.5 学習回路の尤度

PRML(上)p236
参考

・尤度関数を誤差関数として使用するとよい!
出力の活性化関数と誤差関数 ⇒ 解くべき問題の型で選択
活性化関数(出力関数)
g()

誤差関数
E()

回帰問題

線形出力関数

二乗和誤差

2クラス分類問題
(多数の独立な)

ロジスティックシグモイド関数 二乗和誤差
ソフトマックス関数(2クラス)
交差エントロピー誤差関数

多クラス分類問題

ソフトマックス関数

多クラス交差エントロピー誤差関数

クラス分類問題では、交差エントロピー誤差関数を使うほうが、
訓練が早く、同時に凡化能力が高まる。Simard et al, 2003 PLML(上) p235
7.3.5 学習回路の尤度

参考 p.52, 91-93
エントロピー関数

K個の異なる2クラス分類
出力okをK個の無関係な確率とみなす場合
以下のベルヌーイ試行とみなせる

(ここで

𝐾
𝑡

𝑜𝑘𝑘 1 − 𝑜𝑘

𝑝 𝑡|𝑥, 𝑤 =

は

となる確率)

1−𝑡 𝑘

負の対数尤度

𝑘=1

誤差の評価関数:交差エントロピー誤差関数
シグモイド関数の微分には
シグモイド関数が残っている!

結合係数の更新式(出力層)

出力関数がシグモイド関数の場合
二乗誤差基準と違い出力関数の微分が消えて、
学習が進まなくなることがない
参考 p.52, 91-93

7.3.5 学習回路の尤度
K個の排他的な1つに割り当てる場合 (ソフトマックス関数)
出力を 𝑔 (ok) = p( tk = 1 |x)のようにする場合
𝐾

𝑝 𝑡 𝑘 = 1|𝑥

𝑡
𝑜𝑘𝑘

𝑝 𝑡 𝑘 = 1|𝑥, 𝑤 =
𝑘=1

負の対数尤度

誤差の評価関数
𝑁

𝐸

𝐾

𝑡 𝑘𝑛 log 𝑜 𝑘𝑛

𝑤 =−
𝑛=1 𝑘=1

結合係数の更新式 p93
最尤推定法
E(w)を各wで微分(=0)をして、各wを出す。

?
まとめ
特徴
出力誤差から

w を学習する

・出力関数 g()
・誤差の評価関数 E()
・更新式 Δw

問題点(本にないものあり)
・局所最適化、過学習 (わりと改善している感)
->正則化
->DropOut[Hinton 12]学習時:Nを半数消す、推論時:Nの出力2/1、複数モデルの平均
->Maxout[Good fellow 13]複数の出力関数の内最大値を取るものを選ぶ、高性能
・誤差の伝播が十分でない(層が深いとき)
・遅い →交差エントロピーの方が速く、凡化性能が良い
→ReLU[Nair 10]h(x)=log(1+e(x)) =~ max(0,x)、 結果もよい →Maxoutも速い
・構造の形はどれくらいがいいのか(層数とかピラミッドとか) →技はあるっぽい

・生理モデルではない
おまけ

Deep Learning

DNN(Deep Neural network)
層の数が多い階層的なニューラルネットワーク
DBN(Deep Belief network)
層ごとに教師なし事前学習で初期値得る
教師あり学習を行う

DBM(Deep Boltzmann Machine)
DBNの拡張
隠れ層が積みあがる

RNN
CNN

RBM(Restricted Boltzmann Machine)
ボルツマンマシンの変種
確率的に伝播するネットワーク
積み重ね

HMMの積み重ねとかもあるみたい

More Related Content

What's hot

今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
Shinya Shimizu
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
 

What's hot (20)

「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料 「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
 
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半はじめてのパターン認識 第6章 後半
はじめてのパターン認識 第6章 後半
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 
はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6はじめてのパターン認識 第9章 9.5-9.6
はじめてのパターン認識 第9章 9.5-9.6
 
はじめてのパターン認識 第1章
はじめてのパターン認識 第1章はじめてのパターン認識 第1章
はじめてのパターン認識 第1章
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
 
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)深層ニューラルネットワークの積分表現(Deepを定式化する数学)
深層ニューラルネットワークの積分表現(Deepを定式化する数学)
 
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知  #ml-professional単純ベイズ法による異常検知  #ml-professional
単純ベイズ法による異常検知 #ml-professional
 
PRML 第4章
PRML 第4章PRML 第4章
PRML 第4章
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしないPyMCがあれば,ベイズ推定でもう泣いたりなんかしない
PyMCがあれば,ベイズ推定でもう泣いたりなんかしない
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリング
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 

Viewers also liked

はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
Naoki Yanai
 

Viewers also liked (8)

ぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニングぼくの実装した最弱のディープラーニング
ぼくの実装した最弱のディープラーニング
 
単純パーセプトロン
単純パーセプトロン単純パーセプトロン
単純パーセプトロン
 
無限と計算可能性と対角線論法
無限と計算可能性と対角線論法無限と計算可能性と対角線論法
無限と計算可能性と対角線論法
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義
 
20150803.山口大学講演
20150803.山口大学講演20150803.山口大学講演
20150803.山口大学講演
 
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~んTokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
 
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
はじめてでもわかるベイズ分類器 -基礎からMahout実装まで-
 
決定木学習
決定木学習決定木学習
決定木学習
 

Similar to はじぱた7章F5up

パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
Miyoshi Yuya
 
20130925.deeplearning
20130925.deeplearning20130925.deeplearning
20130925.deeplearning
Hayaru SHOUNO
 
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceLight weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
ishii yasunori
 

Similar to はじぱた7章F5up (20)

東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 
レポート1
レポート1レポート1
レポート1
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)
 
NN, CNN, and Image Analysis
NN, CNN, and Image AnalysisNN, CNN, and Image Analysis
NN, CNN, and Image Analysis
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習RBMを応用した事前学習とDNN学習
RBMを応用した事前学習とDNN学習
 
パターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズムパターン認識 第12章 正則化とパス追跡アルゴリズム
パターン認識 第12章 正則化とパス追跡アルゴリズム
 
PRML Chapter 5
PRML Chapter 5PRML Chapter 5
PRML Chapter 5
 
Variational autoencoder
Variational autoencoderVariational autoencoder
Variational autoencoder
 
畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開 畳み込みネットワークによる高次元信号復元と異分野融合への展開
畳み込みネットワークによる高次元信号復元と異分野融合への展開
 
20130925.deeplearning
20130925.deeplearning20130925.deeplearning
20130925.deeplearning
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
【招待講演】パラメータ制約付き行列分解のベイズ汎化誤差解析【StatsML若手シンポ2020】
 
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
[ICLR/ICML2019読み会] Data Interpolating Prediction: Alternative Interpretation ...
 
Light weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_faceLight weightbinocular sigasia2012_face
Light weightbinocular sigasia2012_face
 
Machine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEEMachine Learning Fundamentals IEEE
Machine Learning Fundamentals IEEE
 

はじぱた7章F5up