SlideShare a Scribd company logo
1 of 78
Download to read offline
カジュアル勉強会 @仙台
Excelで機械学習入門 第6回
株式会社 エクテック
データサイエンティスト
第10回までの流れ
1回~3回 4回~10回
AI周辺の
基本知識
最適化の基本
推論の基本
重回帰分析
機械学習
サポートベクタマシン
ナイーブベイズ
ニューラルネットワーク
RNN/BPTT
強化学習/Q学習
前段
勉強会に参加する以上...
『なにか』を
持って帰って欲しい
『すべて』は難しいけれど
気になった、興味をもった
キーワードでも良いので
⼿元に持って帰って
いただけると幸いです
環境について
(Surroundings)
Excel 2013, 2016
Google Spreadsheets
本日のアジェンダ
1. 誤差逆伝播法(バックプロパゲーション法)
2. 誤差逆伝播法をExcelで体験
誤差逆伝播法
(バックプロパゲーション法)
前回学んだ
ニューラルネットワーク
そのニューラルネットワークの
重みと閾値を決定するために利⽤
『ユニットの誤差』δ(デルタ)
を使い、⾯倒な微分計算を
数列の漸化式で回避する⼿法
4 ✖ 3 画素の⽩⿊2値画像として読み取った
「0」,「1」の⼿書き⽂字画像を識別する
ニューラルネットワークを作成します。
学習⽤画像データは55枚とします。
前回のお話で
訓練データから求めた誤差の総和E
⽬的関数となるEを最⼩にする
重みと閾値を探す
訓練データは55枚あるので
…
{t1, t2} …
正解ラベルtの組は55個ある
(今回は”0”,”1”の数字データなので
学習の際にあらかじめ ”0” or “1”の
ラベルがふられている)
{t1, t2} {t1, t2} {t1, t2}
E = e1 + e2 + … + e55
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
Z1
Z2
t1
t2
z1
z2
出⼒層
k番⽬の
画像
計算
出⼒ 理想値
2 2
……
k番⽬
1番⽬
55番⽬
学習データ
……
k番⽬
1番⽬
55番⽬
学習データ
ニューラルネット
……
k番⽬
1番⽬
55番⽬
学習データ
ニューラルネット
e1 = {(t1[1]-z1[1]) + (t2[1]-z2[1]) }
2
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
e55 = {(t1[55]-z1[55]) + (t2[55]-z2[55]) }
2 2
2 2
……
……
誤差
2
予測値の算出
……
k番⽬
1番⽬
55番⽬
学習データ
ニューラルネット
e1 = {(t1[1]-z1[1]) + (t2[1]-z2[1]) }
2
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
e55 = {(t1[55]-z1[55]) + (t2[55]-z2[55]) }
2 2
2 2
……
……
誤差
2
0
0
1
……
正解
t1[1]=1
t2[1]=0
t1[k]=1
t2[k]=0
t1[55]=0
t2[55]=1
……
理想値
予測値の算出
……
k番⽬
1番⽬
55番⽬
e1 = {(t1[1]-z1[1]) + (t2[1]-z2[1]) }
2 2
ek = {(t1[k]-z1[k]) + (t2[k]-z2[k]) }
e55 = {(t1[55]-z1[55]) + (t2[55]-z2[55]) }
2 2
2 2
……
……
0
0
1
……
学習データ 誤差
ニューラルネット
予測値の算出
正解
t1[1]=1
t2[1]=0
t1[k]=1
t2[k]=0
t1[55]=0
t2[55]=1
……
理想値
E = e1 + e2 + … + e55
⽬的関数
さて、ここで⽬的関数を
最⼩化するには
今まで学んできた内容ならば
勾配降下法を⽤いる?
勾配降下法の式を書き下すと
⽬的関数Eにおいて、重み w11, …,w11, …と
閾値 θ1, … ,θ1, … を順に
w11+Δw11, …, θ1+Δθ1, …
H H H H
w11+Δw11, …, θ1+Δθ1, …
O O O O
H O
H O
と変化させたときに⽬的関数Eが最も⼩さく
なるのは次の関係が成り⽴つときである
(w11, … , θ1, … , w11, …, θ1, …)
= - η(
H H O O
δE
δw11
δE
δθ1
δE
δw11
δE
δθ1
H OH O,…, ,…, ,…, ,… )
これを計算しようとすると
途⽅もない計算を⾏うことになる
※たかだか55枚なのに
そこで
誤差逆伝播法の登場
そもそも⽬的関数Eは 平⽅誤差の和
E = e1 + e2 + … + e55
そもそも⽬的関数Eは 平⽅誤差の和
E = e1 + e2 + … + e55
つまり⽬的関数Eの勾配は、
平⽅誤差の和の勾配
そもそも⽬的関数Eは 平⽅誤差の和
E = e1 + e2 + … + e55
つまり⽬的関数Eの勾配は、
平⽅誤差の和の勾配
さきにeの勾配を計算して、最後に
それらの和を求めるとEの勾配となる
さきにeの勾配を計算して、最後に
それらの和を求めるとEの勾配となる
E
δE
δw
δE
δθ
δe1
δw
δe2
δw
δe55
δw
δe1
δθ
δe2
δθ
δe55
δθ
e1 e2 e55… … …
ここで
『ユニットの誤差』の導⼊
誤差逆伝播法の仕組みをみていく
※数学的にみていくと難解であるため
ここではイメージのみ
⽬的関数Eにおいて、重み w11, …,w11, …と
閾値 θ1, … ,θ1, … を順に
w11+Δw11, …, θ1+Δθ1, …
H H H H
w11+Δw11, …, θ1+Δθ1, …
O O O O
H O
H O
と変化させたときに⽬的関数Eが最も⼩さく
なるのは次の関係が成り⽴つときである
(w11, … , θ1, … , w11, …, θ1, …)
= - η(
H H O O
δE
δw11
δE
δθ1
δE
δw11
δE
δθ1
H OH O,…, ,…, ,…, ,… )
ユニットごとに、ユニット間の
重みや閾値を計算しようとするから
⼤変なことになる
じゃあ、ユニット単位で
まとめて誤差を考えれば良いじゃない
1. ユニットの誤差ξの導⼊
2. 勾配を、ユニットの誤差ξから算出
3. 出⼒層の『ユニットの誤差』を算出
4. 誤差逆伝播法から中間層の
  『ユニット誤差』を求める
i Xi
Hj
Zk
i番⽬の
ニューロン
(i=1,2,...,12)
j番⽬の
ニューロン
(j=1,2,3)
k番⽬の
ニューロン
(k=1,2)
wji wkj
O
ネットワークの
情報伝達の⽅向
誤差逆伝播法
θj θk
OH
H
Xi Hj Zk
隠れ層
(Hidden layer)
⼊⼒層
(Input layer)
出⼒層
(Output layer)
i は⼊⼒層の中の
上からの位置を
⽰すとする
j は隠れ層の中の
上からの位置を
⽰すとする
k は出⼒層の中の
上からの位置を
⽰すとする
Hj
Zk
Xi ユニットXi の出⼒xi
ユニットHj の出⼒hj
ユニットZkの出⼒zk
⼤⽂字は、ユニット名を
⼩⽂字は、ユニットの出⼒変数を表すことにします
sj
隠れ層
(Hidden layer)
j番⽬のニューロン
出⼒層
(Output layer)
k番⽬のニューロン
⼊⼒の
線形和
H
θj
H
wji
H
⼊⼒層 i番⽬の
ニューロン
sk
⼊⼒の
線形和
O
θk
O
wkj
O
隠れ層 j番⽬の
ニューロン
1. ユニットの誤差ξの導⼊
δe
δsj
ξj = (j=1,2,3)
δe
δsk
, ξj = (k=1,2)OH
1. ユニットの誤差ξの導⼊
δe
δsj
ξj = (j=1,2,3)
δe
δsk
, ξk = (k=1,2)OH
2. 勾配を、ユニットの誤差ξから算出
δe
δwji
H = ξj xi ,
H δe
δθj
H = -ξj
H
(i=1,2, …, 12, j=1,2,3)
δe
δwkj
O = ξk hj ,
O δe
δθk
O = -ξk
O
(j=1,2,3, k=1,2)
3. 出⼒層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
3. 出⼒層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
⼀⽅で、 e = 1/2{(t1-z1) + (t2-z2) }2 2
なので、※計算のしやすさから 1/2倍している
δe
δz1
= -(t1 - z1),
δe
δz2
= -(t2 - z2)
3. 出⼒層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
より
δe
δz1
= -(t1 - z1),
δe
δz2
= -(t2 - z2)
ξ1 = -(t1 - z1) a(s1), ξ2 = -(t2 - z2) a(s2),
O OO O
3. 出⼒層の『ユニットの誤差』を算出
ξk =
O δe
δsk
O =
δe
δzk
δzk
δsk
O =
δe
δzk
= a(sk)
O
より
δe
δz1
= -(t1 - z1),
δe
δz2
= -(t2 - z2)
ξ1 = -(t1 - z1) a(s1), ξ2 = -(t2 - z2) a(s2),
O OO O
既知の値なので誤差 ξk
O
が求まる
4. 誤差逆伝播法から中間層の
  『ユニット誤差』を求める
※算出を実際にトライしてみてください
ξj = (ξ1w1j + ξ2w2j ) a(sj) (i=1,2,3)
H O O O O H
4. 誤差逆伝播法から中間層の
  『ユニット誤差』を求める
※算出を実際にトライしてみてください
ξj = (ξ1w1j + ξ2w2j ) a(sj) (i=1,2,3)
H O O O O H
この仕組みによって、
⾯倒な微分計算を⾏わず、
漸化式で解くことが可能となる
ニューラルネットワークの
計算は、隠れ層(中間層)から出⼒層へ
⼀⽅、『ユニットの誤差』の計算は
出⼒層から隠れ層(中間層)へ
これが
誤差逆伝播法
誤差逆伝播法をExcelで体験
Excel推奨
※計算重いので注意してください
1. 訓練データの準備
訓練データ
55枚
⽩⿊なので、0, 1で表現
2. 重みと閾値の初期化
勾配降下法の
ステップ幅を決める
初期値を設定
(ランダム)
3. ユニットの出⼒値と
活性化関数の微分値を計算
1番⽬の画像に対して
隠れ層と出⼒層の
各ユニットの線形和・
活性化関数の微分値・
平⽅誤差eを計算
4. 誤差逆伝播法から
各層のユニット誤差ξを計算
ユニットの
誤差を計算
5.平⽅誤差e の勾配を計算
ユニットの
誤差を計算をしたので、
平⽅誤差の勾配を
次に計算
6. 訓練データ全てについて関数を
コピー&Eの勾配を計算
55枚分を
横にコピペ
55枚分の、平⽅誤差eの勾配を合計して
⽬的関数 Eを計算
7. 勾配降下法を利⽤して
重みと閾値を計算
勾配降下法で、
新たな重みと閾値を計算
並⾏して、
Eの勾配の総和を計算
8. 3.~7.を繰り返し計算
50回⽬の計算
そのときの重みと閾値
いざ、テスト
いかがでしたでしょうか?
ニューラルネットワーク
感覚的にわかってきたのでは?
次回以降、
深層学習に⼊っていきます
EoF

More Related Content

What's hot

深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについてryosuke-kojima
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...Deep Learning JP
 
130604 fpgax kibayos
130604 fpgax kibayos130604 fpgax kibayos
130604 fpgax kibayosMikio Yoshida
 
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10Kota Mori
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)Kota Matsui
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5Takuya Minagawa
 
DS Exercise Course 3
DS Exercise Course 3DS Exercise Course 3
DS Exercise Course 3大貴 末廣
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1Kenta Oono
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
Very helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference methodVery helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference method智啓 出川
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with MemoryShinagawa Seitaro
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)Yasunori Ozaki
 
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw170318 第3回関西NIPS+読み会: Learning What and Where to Draw
170318 第3回関西NIPS+読み会: Learning What and Where to DrawShinagawa Seitaro
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 

What's hot (20)

深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
 
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
 
130604 fpgax kibayos
130604 fpgax kibayos130604 fpgax kibayos
130604 fpgax kibayos
 
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
 
DS Exercise Course 3
DS Exercise Course 3DS Exercise Course 3
DS Exercise Course 3
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
Very helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference methodVery helpful python code to find coefficients of the finite difference method
Very helpful python code to find coefficients of the finite difference method
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory20160716 ICML paper reading, Learning to Generate with Memory
20160716 ICML paper reading, Learning to Generate with Memory
 
PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)PRMLの線形回帰モデル(線形基底関数モデル)
PRMLの線形回帰モデル(線形基底関数モデル)
 
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw170318 第3回関西NIPS+読み会: Learning What and Where to Draw
170318 第3回関西NIPS+読み会: Learning What and Where to Draw
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 

Similar to Casual learning machine learning with_excel_no6

第2回 メドレー読書会
第2回 メドレー読書会第2回 メドレー読書会
第2回 メドレー読書会Toshifumi
 
言語処理系入門3
言語処理系入門3言語処理系入門3
言語処理系入門3Kenta Hattori
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...Akihiro Nitta
 
Nmp for quantum_chemistry
Nmp for  quantum_chemistryNmp for  quantum_chemistry
Nmp for quantum_chemistryshima o
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronKoji Sekiguchi
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing禎晃 山崎
 
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Brains Consulting, Inc.
 
ワークショップ「ゲーム開発チームにおけるパトレット」
ワークショップ「ゲーム開発チームにおけるパトレット」ワークショップ「ゲーム開発チームにおけるパトレット」
ワークショップ「ゲーム開発チームにおけるパトレット」Masaru Nagaku
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)Kenta Ishii
 
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロンKeiichirou Miyamoto
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
CVPR2011祭り 発表スライド
CVPR2011祭り 発表スライドCVPR2011祭り 発表スライド
CVPR2011祭り 発表スライドAkisato Kimura
 
TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座Ruo Ando
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義Hayaru SHOUNO
 
Interop2017
Interop2017Interop2017
Interop2017tak9029
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
 

Similar to Casual learning machine learning with_excel_no6 (20)

第2回 メドレー読書会
第2回 メドレー読書会第2回 メドレー読書会
第2回 メドレー読書会
 
言語処理系入門3
言語処理系入門3言語処理系入門3
言語処理系入門3
 
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
PRML 5.2.1-5.3.3 ニューラルネットワークの学習 (誤差逆伝播) / Training Neural Networks (Backpropa...
 
Nmp for quantum_chemistry
Nmp for  quantum_chemistryNmp for  quantum_chemistry
Nmp for quantum_chemistry
 
OpenNLP - MEM and Perceptron
OpenNLP - MEM and PerceptronOpenNLP - MEM and Perceptron
OpenNLP - MEM and Perceptron
 
SeRanet
SeRanetSeRanet
SeRanet
 
レポート1
レポート1レポート1
レポート1
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 
Connecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typingConnecting embedding for knowledge graph entity typing
Connecting embedding for knowledge graph entity typing
 
Deep Learningについて(改訂版)
Deep Learningについて(改訂版)Deep Learningについて(改訂版)
Deep Learningについて(改訂版)
 
ワークショップ「ゲーム開発チームにおけるパトレット」
ワークショップ「ゲーム開発チームにおけるパトレット」ワークショップ「ゲーム開発チームにおけるパトレット」
ワークショップ「ゲーム開発チームにおけるパトレット」
 
Long short-term memory (LSTM)
Long short-term memory (LSTM)Long short-term memory (LSTM)
Long short-term memory (LSTM)
 
17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン17ゼロから作るディープラーニング2章パーセプトロン
17ゼロから作るディープラーニング2章パーセプトロン
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
CVPR2011祭り 発表スライド
CVPR2011祭り 発表スライドCVPR2011祭り 発表スライド
CVPR2011祭り 発表スライド
 
TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座TensorflowとKerasによる深層学習のプログラム実装実践講座
TensorflowとKerasによる深層学習のプログラム実装実践講座
 
20150803.山口大学集中講義
20150803.山口大学集中講義20150803.山口大学集中講義
20150803.山口大学集中講義
 
Interop2017
Interop2017Interop2017
Interop2017
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
アルゴリズムのハードウェア化から学ぶ問題解決教育プログラム
アルゴリズムのハードウェア化から学ぶ問題解決教育プログラムアルゴリズムのハードウェア化から学ぶ問題解決教育プログラム
アルゴリズムのハードウェア化から学ぶ問題解決教育プログラム
 

More from KazuhiroSato8

Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1KazuhiroSato8
 
Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2KazuhiroSato8
 
Casual datascience vol5
Casual datascience vol5Casual datascience vol5
Casual datascience vol5KazuhiroSato8
 
Basic deep learning_framework
Basic deep learning_frameworkBasic deep learning_framework
Basic deep learning_frameworkKazuhiroSato8
 
Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1KazuhiroSato8
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回KazuhiroSato8
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回KazuhiroSato8
 
Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1KazuhiroSato8
 
Casual datascience vol4
Casual datascience vol4Casual datascience vol4
Casual datascience vol4KazuhiroSato8
 
Casual datascience vol3
Casual datascience vol3Casual datascience vol3
Casual datascience vol3KazuhiroSato8
 
Casual datascience vol2
Casual datascience vol2Casual datascience vol2
Casual datascience vol2KazuhiroSato8
 
Casual datascience vol1
Casual datascience vol1Casual datascience vol1
Casual datascience vol1KazuhiroSato8
 

More from KazuhiroSato8 (12)

Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1
 
Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2
 
Casual datascience vol5
Casual datascience vol5Casual datascience vol5
Casual datascience vol5
 
Basic deep learning_framework
Basic deep learning_frameworkBasic deep learning_framework
Basic deep learning_framework
 
Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
 
Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1
 
Casual datascience vol4
Casual datascience vol4Casual datascience vol4
Casual datascience vol4
 
Casual datascience vol3
Casual datascience vol3Casual datascience vol3
Casual datascience vol3
 
Casual datascience vol2
Casual datascience vol2Casual datascience vol2
Casual datascience vol2
 
Casual datascience vol1
Casual datascience vol1Casual datascience vol1
Casual datascience vol1
 

Recently uploaded

リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドKen Fukui
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slidessusere0a682
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドKen Fukui
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfyukisuga3
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドKen Fukui
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドKen Fukui
 
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドリアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドKen Fukui
 

Recently uploaded (8)

リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライドリアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
リアル戦国探究in米沢 当日講座3スライド(スタッフ共有用)『糧は三度はさいせず』についてのスライド
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
【ゲーム理論入門】ChatGPTが作成した ゲーム理論の問題を解く #3 Slide
 
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライドリアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
リアル戦国探究in米沢 事前講座1スライド(スタッフ共有用)『川中島の謎』についてのスライド
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdf
 
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライドリアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
リアル戦国探究in米沢 当日講座2スライド(スタッフ共有用)『人を致すも人に致されず』についてのスライド
 
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライドリアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
リアル戦国探究in米沢 事前講座2スライド(スタッフ共有用)『両雄の強さの秘密』についてのスライド
 
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライドリアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
リアル戦国探究in米沢 当日講座1(スタッフ共有用)『兵は詐をもって立つ』についてのスライド
 

Casual learning machine learning with_excel_no6