SlideShare a Scribd company logo
第5章
機械学習の基礎
hirono
1
5章の流れ ‑‑前半
学習アルゴリズム
容量、過剰適合、過少適合
ハイパーパラメーターと検証集合
推定量、バイアス、バリアンス
最尤推定
ベイズ統計
2
5章の流れ ‑‑後半
教師あり学習アルゴリズム
教師なし学習アルゴリズム
確率的勾配効果法
機械学習アルゴリズムの構築
深層学習の発展を促す課題
3
統計に対する2つのアプローチ
頻度主義推定量
ベイズ推定量
4
5.1学習アルゴリズム
タスク・評価指標・経験
5.1学習アルゴリズム 5
学習とは?
タスクTにおいて性能指標Pが経験Eによって改善される時、そのタ
スクTのクラスおよび評価指標Pに関して経験Eから学習するといわ
れている
5.1学習アルゴリズム 6
タスク
5.1学習アルゴリズム 7
評価指標
モデルの能力を評価するために、定量的な尺度の設計が必要!
→モデルの 精度 や 誤差率 の測定
5.1学習アルゴリズム 8
評価指標として何を測定するべきか?決めるのが難しいときも多い
転写タスクにおいて部分的に評価するべきか、全体評価をするべき
か?
回帰タスクにおいて頻繁に中程度の誤りを起こすものと、まれに大
規模な誤りを起こすものとどちらが良いか?
理想的には何を測定するべきかわかっていても現実的に不可能な場
合、どうすれば良いか?
...これらの設計の選択はアプリケーションに依存する!!
5.1学習アルゴリズム 9
経験E
機械学習アルゴリズムは、学習過程においてどのような経験を獲得
するかによって、大きく 教師あり学習 と 教師なし学習 に分類でき
る
5.1学習アルゴリズム 10
教師なし学習アルゴリズム
データの背後に存在する本質的な構造を抽出する
教師あり学習アルゴリズム
事前に与えられたデータをいわば「例題(=先生からの助言)」と
みなして、それをガイドに学習を行う
5.1学習アルゴリズム 11
irisデータセット
5.1学習アルゴリズム 12
花びらの長さと幅のデータが入っている
5.1学習アルゴリズム 13
ex.線形回帰
= w x
xから を予測する
入力:ベクトルx ∈ R
出力:スカラー ∈ R
パラメータ:w ∈ R
...各特徴量が予測に対しどれくらい影響を与えるか? 重み の集合
y^ T
y^
n
y^
n
5.1学習アルゴリズム 14
= w x
これをどのように評価するか?→ 平均二乗誤差
y^ T
5.1学習アルゴリズム 15
平均二乗誤差
MSE = ( − y )
∣∣x∣∣ = より
∣∣ − y ∣∣ =
MSE = ∣∣ − y ∣∣
test
m
1
i
∑ y^test test 2
2 √ (x )∑i i
2
y^test test
2 √ ( − y )∑i y^test test 2
test
m
1
y^test test
2
2
5.1学習アルゴリズム 16
MSE の最小化...勾配が0となる点を求めれば良い
∇wMSE = 0
⇒ ∇w ∥y − y ∥ = 0
⇒ ∇w∥X w − y ∥ = 0
⇒ ∇w(X w − y ) − (X w − y )
⇒ ∇w(w X w − 2wX y + y y ) = 0
⇒ 2X X w − 2X y = 0
⇒ w = (X X ) X y ...正規方程式
train
train
m
1 train train
2
2
m
1 (train) train
2
2
train train T train train
T trainT
train train train train
train train train train
train train −1 train train
5.1学習アルゴリズム 17
ちなみに
一般的に「線形回帰」といったときのモデル
= w x + b
b:バイアスパラメータ
入力が全くないときに出力がbによるため
y^ T
5.1学習アルゴリズム 18
5.2容量、過剰適合、過少適合
モデルの容量
Underfitting
Overfitting
正則化
5.2容量、過剰適合、過少適合 19
機械学習の課題:未知の入力に対してもアルゴリズムは良い性能を
発揮しなければならない... 汎化
訓練データとは別の テスト集合 に対して性能評価を行う!
訓練データもテストデータも同じ データ生成過程 (データ酒豪の確
率分布)から生成される
5.2容量、過剰適合、過少適合 20
i.i.d仮定
独立
同一の分布に従う
5.2容量、過剰適合、過少適合 21
TrainingerrorとTesterror
Trainingerror...訓練誤差
∥X w − y ∥
Testerror...汎化誤差
∥X w − y ∥
訓練誤差を小さくする→訓練誤差と汎化誤差の差を小さくする
mtrain
1 train train
2
2
mtest
1 test test
2
2
5.2容量、過剰適合、過少適合 22
モデルの表現容量
= wx + bよりも = w x + w x + bのほうが表現の幅が
広がる!!
単純に表現容量をあげればいいというわけではない
y^ y^ 1 2
2
5.2容量、過剰適合、過少適合 23
過少適合Underfittong
過剰適合Overfitting
5.2容量、過剰適合、過少適合 24
任意の高い容量で最も極端な状態に達するには?
ノンパラメトリックモデル
http://www.snap‑tck.com/room04/c01/stat/stat99/stat0103.pdf
5.2容量、過剰適合、過少適合 25
その一例、 最近傍回帰 k近傍法とも
任意の点について、最も近いk個のデータの点のマジョリティのク
ラスを、その点のクラスとする
5.2容量、過剰適合、過少適合 26
理想的なモデル...データを生成する真の確率分布を知っている神託
(オラクル)
神託(しんたく、英語: Oracle)
神の意を伺う事。また、その時伝えられた言葉。道具により神の意を推し
測る占いに近いものと、トランス状態になったシャーマンの口から
伝えられるものとに分けられるが、何かを媒介にする点では同じである。
???
...しかし、その確率分布にもノイズが含まれている可能性がある
真の確率分布から神託が予測した際に生じる誤差を ベイズ誤差 と
呼ぶ
5.2容量、過剰適合、過少適合 27
機械学習では、集合のほとんどの要素について、ほぼ正しい規則の
発見が予測される
が、これで全ての問題が解決されるわけではない
5.2容量、過剰適合、過少適合 28
ノーフリーランチ定理
データを生成する分布全てを平均すると、どの分類アルゴリズムも
過去に観測されていない点を分類する際の誤差率は同じ  (1996)
数学的にありうべき全ての問題の集合について、どの探索アルゴリ
ズムも同じ平均性能
→ 特定のタスクに対してうまく機能するアルゴリズムを設計!!
5.2容量、過剰適合、過少適合 29
正則化regularization
before
学習アルゴリズムの修正方法:モデルの表現容量を増大させる
5.2容量、過剰適合、過少適合 30
正則化regularization
(再掲)モデルの容量を増減させることで学習アルゴリズムの修正が
できる
しかし、ほかにも方法がある!
5.2容量、過剰適合、過少適合 31
重み減衰
学習アルゴリズムにおいて、その仮設空間内にあるある解を他の解
より優先させる
J(w) = MSE + λw w
重み減衰λw wを含めた最小二乗誤差を最小化する!
train
T
T
5.2容量、過剰適合、過少適合 32
正則化
もっと一般的に言うと、 正規化項 と呼ばれるペナルティをコスト
関数に追加することで、学習するモデルを 正則化 することができ
る
テスト誤差を減少させる目的で学習アルゴリズムに加えられる
過学習を防ぐ!
5.2容量、過剰適合、過少適合 33
5.3ハイパーパラメーターと検証集合
ハイパーパラメータ
検証Validation
交差検証
5.3ハイパーパラメーターと検証集合 34
ハイパーパラメータ
アルゴリズムの挙動を制御するための設定値
(重み減衰のλや多項式の次元数など)
訓練集合でハイパーパラメータを学習することが適切でない場合も
ある
ex.モデルの容量を制御するハイパーパラメータ
可能な範囲で最大のモデル容量を選択する
訓練誤差を減らすには、高い次元の多項式かつλ=0がベスト=>過
学習!!!
5.3ハイパーパラメーターと検証集合 35
これを回避するために、 検証集合(Validation set) を用いてハ
イパーパラメータの最適化を行う!!
ValidationData
(注)検証データにテストデータを使ってはいけない!
5.3ハイパーパラメーターと検証集合 36
与えられたデータセットが小さすぎる時、小さいテスト集合の損失
Lの平均値は分散が大きくなる→過学習
そんなときに 交差検証 (k‑分割交差検証アルゴリズム)
5.3ハイパーパラメーターと検証集合 37
5.4推定量、バイアス、バリアンス
5.4推定量、バイアス、バリアンス 38
推定量とは?
統計学における推定量(すいていりょう)とは、現実に測定された
標本データをもとに、確率分布の母数(パラメータ、現実には測定できない)
として推定した数量(英語:Estimate)、
もしくはそれをデータの関数として表す推定関数
(すいていかんすう:Estimator)のことをいう。
5.4推定量、バイアス、バリアンス 39
点推定量
点推定...入力変数と出力変数の関係の推定
パラメータθ の点推定 →
{x , ⋯ , x } ...m個の独立同一分布のデータ点から成る集合
点推定量 ...データの任意の関数
= g(x , ⋯ , x )
良好な推定量は、訓練データを生成した真の潜在的なθ に近い出力
を持つ関数!!
θ^
(1) (m)
θ^m
(1) (m)
5.4推定量、バイアス、バリアンス 40
バイアス
推定量のバイアス(偏り)
の期待値からθを引く
bias( ) = E( ) − θ
バリアンス
推定量の分散
V ar(θ)
θ^m
θ^m θ^m
5.4推定量、バイアス、バリアンス 41
ex.ベルヌーイ分布
平均がθであるベルヌーイ分布に従う集合{x , ..., x }
ベルヌーイ分布...P(x ; θ) = θ (1 − θ)
推定量 = x
(...式5.23‑5.28参照)
bias( ) = 0 になる
よって推定量 は 不偏 である
1 m
i xi
(1−x )i
θ^m m
1
∑i=1
m i
θ^m
θ^
5.4推定量、バイアス、バリアンス 42
不偏性
推定量に偏りがあるかどうか?
bias( ) = 0のとき、 不偏
lim E θ = 0のとき、 漸近不偏
θ^m
m→∞ ( m)
5.4推定量、バイアス、バリアンス 43
一致性
データの数を無限大に増やしたときに点推定量が収束するかどうか
p = θ
m→∞
lim θ^m
5.4推定量、バイアス、バリアンス 44
5.5最尤推定
与えられたデータからそれが従う確率分布の母数を点推定する方法
最も尤度が高くなる推定を探す
θ = argmaxp (X; θ)
θ = argmaxE [log (x; θ)]
ML model
ML x∼p^data
p^model
5.5最尤推定 45
KLダーバージェンス
2つの分布間の距離
D ( ∣∣p ) =E [log (x) − log (x)]KL p^data model x∼p^data
p^data p^model
5.5最尤推定 46
つまり、KLダイバージェンスの最小化=尤度の最大化という解釈が
できる
尤度の最大化
θ = argmaxE [log (x; θ)]
KLダイバージェンスの最小化
D ( ∣∣p ) =E [log (x) − log (x)]
ML x∼p^data p^model
KL p^data model x∼p^data p^data p^model
5.5最尤推定 47
最尤法の長所
事例の数が無限大に増加するとき、推定量が収束する
最尤法の短所
データ数が少ないときに、信頼度が低い...
5.5最尤推定 48
5.6ベイズ統計
MAP推定
5.6ベイズ統計 49
MAP推定(最大事後確率推定)
事後確率の最大化!
θ = argmaxp(θ∣x) = argmax log p(θ∣x) + log p(θ)
⇆さっきまでの最尤推定
θ = argmaxE [log (x; θ)]
MAP
ML x∼p^data
p^model
5.6ベイズ統計 50
5.7教師あり学習アルゴリズム
SVM
決定木
5.7教師あり学習アルゴリズム 51
SVM
教師あり学習を用いるパターン認識モデルの一つ
データに対して、どのように線引きをするか?
5.7教師あり学習アルゴリズム 52
どちらの方がうまく線引きができているといえるか?
マージン(引いた境界線と、データの最短距離)を最大化する!
5.7教師あり学習アルゴリズム 53
決定木
データを分割する基準を決定する
データを分割する
繰り返す
5.7教師あり学習アルゴリズム 54
特徴
解釈が容易
数値、カテゴリデータが混在していてもOK
必要な前処理が少ない
過剰適合しやすく汎化性能が低い
「分類」にも「回帰」にも利用可能
5.7教師あり学習アルゴリズム 55
5.8教師なし学習アルゴリズム
主成分分析
k平均クラスタリング
5.8教師なし学習アルゴリズム 56
主成分分析
相関のある多数の変数から相関のない少数で全体のばらつきを最も
よく表す主成分と呼ばれる変数を合成する多変量解析の一手法
データの次元を削減するために使われる
5.8教師なし学習アルゴリズム 57
複数のデータ項目から新しい合成変数(軸)を生み出し、それを解
釈する
5.8教師なし学習アルゴリズム 58
k平均クラスタリング(k‑means)
平均を使い、データをクラスタ数k個に分類する
方法
各点にランダムにクラスタを割り当てる
クラスタの重心を計算する。
点のクラスタを、一番近い重心のクラスタに変更する
変化がなくなるまで繰り返す
わかりやすいサイト
http://tech.nitoyon.com/ja/blog/2009/04/09/kmeans‑visualise/
5.8教師なし学習アルゴリズム 59
5.9確率的勾配降下法(SGD)
stochasticgradientdescent,SGD
勾配降下法の発展ver
ほぼすべてのDLで使われている
5.9確率的勾配降下法 60
NNの学習の目的:損失関数の値をできるだけ小さくするパラメータ
を見つけること!→ 最適化
最適なパラメータを探索する時...
パラメータ空間が複雑に成る程、最適化は困難に...
数式を解いて一瞬で最小値を見つけるとか、絶対ムリ!!!
5.9確率的勾配降下法 61
具体的に、どのくらい計算量が増えるのか?
訓練データの負の条件付き対数尤度
J(θ) = E L(x, y, θ) = L(x , y , θ)
事例毎の損失 L(x, y, θ) = − log p(y∣x; θ)
勾配を求めるための計算コスト:O(m)
(データ数による増え方が単純にデータ数に依存)
...訓練データの事例集が多いほど、
1回の勾配を求めるステップにかかる時間が長くなる!
x,y∼p^data
m
1
i=1
∑
m
i i
5.9確率的勾配降下法 62
そこで 確率的勾配降下法
教師データを全部見ずに一部(ミニバッチ)だけ見て勾配を計算する
ミニバッチB = {x , ⋯ , x } ...1~数百くらいのサイズ
Step1:勾配の推定値gを算出
g = ∇ L(x , y , θ)
Step2:推定された勾配を下る方向へ進む
θ ← θ − ϵg
1 m′
m
1
θ
i=1
∑
m′
i i
5.9確率的勾配降下法 63
学習率 learningrate(p.63)...ステップ幅を決める正のスカラー値
wの更新毎にランダムにミニバッチを選ぶことで、訓練データの大
きさmに依存しない!
5.9確率的勾配降下法 64
一方でSGDにも問題がある
「伸びた形の関数」の場合、探索経路が非効率的
詳しいことは8章で!!
5.9確率的勾配降下法 65
5.10機械学習アルゴリズムの構築
5.10機械学習アルゴリズムの構築 66
ほぼすべてのDLアルゴリズムは、単純な手法の掛け合わせ!
データセット ・ コスト関数 ・ 最適化手順 ・ モデル
ex.線形回帰...y = w x + bT
5.10機械学習アルゴリズムの構築 67
5.11深層学習の発展を促す課題
次元の呪い
局所一様と平滑化
5.10機械学習アルゴリズムの構築 68
従来の機械学習
汎化に使われるメカニズムが、高次元空間において複雑な関数を学
習するのが困難
計算コストが高くなる
↓
これらを解決するために、深層学習が設計された!!
5.11深層学習の発展を促す課題 69
次元の呪い
データの次元が高く成ると学習が困難に...!
(数学的)空間の次元が増えるのに対応して問題の算法が指数関数的に
大きくなること
5.11深層学習の発展を促す課題 70
局所一様と平滑化
ex.k平均法
訓練集合内のk個の同じ最近傍の点を持つ点x全てを含む各領域に対
して、一様
k=1のとき、識別可能な領域の数は訓練事例の数を超えることがな
い
ex.決定木
滑らかさによる学習の制限を受ける
目的関数に少なくともn個の歯が正確に表現されるような木が必要
な場合、適合させるためには少なくともn個の事例が必要!!
予測される出力においてある程度の統計的信頼度を達成するために
は、n倍数分個の個数が必要
5.11深層学習の発展を促す課題 71
多様体学習
機械学習の多くの考えの根底になっている!!
R の大部分は無効な入力で構成されていると仮定
学習された関数の出力における重要な変動は、多様体上のある方向
に沿ってのみ生じるか、ある多様体に移動したときのみ生じるとす
る
ex.文字・画像
n
5.11深層学習の発展を促す課題 72
おわり
5.11深層学習の発展を促す課題 73

More Related Content

What's hot

PRML chapter7
PRML chapter7PRML chapter7
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
Ryosuke Sasaki
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Kei Nakagawa
 
[DL輪読会]Deep Learning 第7章 深層学習のための正則化
[DL輪読会]Deep Learning 第7章 深層学習のための正則化[DL輪読会]Deep Learning 第7章 深層学習のための正則化
[DL輪読会]Deep Learning 第7章 深層学習のための正則化
Deep Learning JP
 
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
tetsuro ito
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
Toshihiko Iio
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
NobuyukiTakayasu
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半Ohsawa Goodfellow
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
matsuolab
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
Koichi Hamada
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
Yuki Matsubara
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
matsuolab
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
Hiroshi Nakagawa
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
matsuolab
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
Kohei Tomita
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
matsuolab
 
[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク
[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク
[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク
Deep Learning JP
 
強化学習入門
強化学習入門強化学習入門
強化学習入門Shunta Saito
 
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章入門パターン認識と機械学習12章
入門パターン認識と機械学習12章
hiro5585
 
[DL輪読会]Deep Learning 第20章 深層生成モデル
[DL輪読会]Deep Learning 第20章 深層生成モデル[DL輪読会]Deep Learning 第20章 深層生成モデル
[DL輪読会]Deep Learning 第20章 深層生成モデル
Deep Learning JP
 

What's hot (20)

PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
[PRML] パターン認識と機械学習(第3章:線形回帰モデル)
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
[DL輪読会]Deep Learning 第7章 深層学習のための正則化
[DL輪読会]Deep Learning 第7章 深層学習のための正則化[DL輪読会]Deep Learning 第7章 深層学習のための正則化
[DL輪読会]Deep Learning 第7章 深層学習のための正則化
 
PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)PRML読書会1スライド(公開用)
PRML読書会1スライド(公開用)
 
Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3Prml 1.3~1.6 ver3
Prml 1.3~1.6 ver3
 
はじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシンはじめてのパターン認識8章サポートベクトルマシン
はじめてのパターン認識8章サポートベクトルマシン
 
PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半PRML上巻勉強会 at 東京大学 資料 第1章前半
PRML上巻勉強会 at 東京大学 資料 第1章前半
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜Prml3.5 エビデンス近似〜
Prml3.5 エビデンス近似〜
 
PRML輪読#5
PRML輪読#5PRML輪読#5
PRML輪読#5
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
PRML輪読#7
PRML輪読#7PRML輪読#7
PRML輪読#7
 
PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6PRML 3.5.2, 3.5.3, 3.6
PRML 3.5.2, 3.5.3, 3.6
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク
[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク
[DL輪読会]Deep Learning 第10章 系列モデリング 回帰結合型ニューラルネットワークと再帰型ネットワーク
 
強化学習入門
強化学習入門強化学習入門
強化学習入門
 
入門パターン認識と機械学習12章
入門パターン認識と機械学習12章入門パターン認識と機械学習12章
入門パターン認識と機械学習12章
 
[DL輪読会]Deep Learning 第20章 深層生成モデル
[DL輪読会]Deep Learning 第20章 深層生成モデル[DL輪読会]Deep Learning 第20章 深層生成モデル
[DL輪読会]Deep Learning 第20章 深層生成モデル
 

Recently uploaded

This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
chiefujita1
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさJSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
0207sukipio
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
Toru Tamaki
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
t m
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
Yuuitirou528 default
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
Matsushita Laboratory
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
Matsushita Laboratory
 

Recently uploaded (8)

This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさJSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
JSAI_類似画像マッチングによる器への印象付与手法の妥当性検証_ver.3_高橋りさ
 
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
論文紹介:When Visual Prompt Tuning Meets Source-Free Domain Adaptive Semantic Seg...
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
 
CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料CS集会#13_なるほどわからん通信技術 発表資料
CS集会#13_なるほどわからん通信技術 発表資料
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
 
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
TaketoFujikawa_物語のコンセプトに基づく情報アクセス手法の基礎検討_JSAI2024
 

DeepLearning 5章