SlideShare a Scribd company logo
1 of 41
Download to read offline
PRML復習レーン#5
4.3.3-
2010-11-06
Yoshihiko Suhara
@sleepy_yoshi
1
目次
• 4.4 確率的識別モデル
– 固定基底関数
– ロジスティック回帰
– 反復再重み付け最小二乗
• ニュートン・ラフソン法
– 多クラスロジスティック回帰
– プロビット回帰
– 正準連結関数
2
4.3.3 反復再重み付け最小二乗
3
誤差関数の最小化
• ロジスティック回帰の誤差関数は,最尤解を解
析的に導出することができない
– cf. 最小二乗法 = 正規方程式
• ニュートン・ラフソン法によるE(w)の最小化
)(1)old()new(
wHww E 
(4.92)
Hはwに関するE(w)の2階微分を要素とするヘッセ行列
補足: ニュートン・ラフソン法
• ニュートン法とも呼ばれる
• 非線形関数の二次近似による解析手法
– 元々はf(x) = 0を求める最適化手法
4
𝑓′
𝑥 = 0を考える
𝑓′(𝑥)の𝑥 = 𝑥0でのテーラー展開をすると
𝑓′ 𝑥 = 𝑓′ 𝑥0 + 𝑓′′ 𝑥0 𝑥 − 𝑥0
𝑥 = 𝑥0 −
𝑓′(𝑥0)
𝑓′′(𝑥0)
𝑓′ 𝑥0 + 𝑓′′ 𝑥0 𝑥 − 𝑥0 = 0より
補足: 1次近似? 2次近似?
• 最急降下法 vs. ニュートン・ラフソン法
– 1次近似 vs. 2次近似
• 凸関数でない場合,ニュートン・ラフソン法 (2
次近似) は局所最適解に捕まる
• 以上をホワイトボードで説明
5
6
二乗和誤差関数への適用
• 二乗誤差関数(3.12)を誤差関数とする線形回帰
モデル(3.3)にニュートン・ラフソン法を適用
– wの更新式は以下で与えられる


N
n
TT
nnn
T
tE
1
)()( tΦΦwΦww 


N
n
TT
nnE
1
)( ΦΦwH 
(4.93)
(4.94)
   tΦΦwΦΦΦww TTT

 )old(1)old()new(
  tΦΦΦ TT 1
 (4.95)
反復せずに1回で正確な値が得られることに注目
7
ロジスティック回帰への適用
• ロジスティック回帰の交差エントロピー誤差関
数(4.90)にニュートン・ラフソン法を適用


N
n
T
nnn tyE
1
)()()( tyΦw 


N
n
TT
nnnn yyE
1
)1()( RΦΦwH 
)1( nnnn yyR 
(4.96)
(4.97)
(4.98)
ヘッセ行列は重み付け行列Rを通じてwに依存
⇒ 繰り返し計算する必要
8
ロジスティック回帰モデルにおける
ニュートン・ラフソン法の更新式
• wの更新は以下のとおり
)()( 1)old()new(
tyΦRΦΦww   TT
)(1)old(
tyRΦwz  
(4.99)
(4.100)
 )()( )old(1
tyΦRΦΦRΦΦ   TTT
w
RzΦRΦΦ TT 1
)( 

ここで
このため,反復再重み付け最小二乗法 (IRLS) とも呼ばれる
重み付けベクトルwが新たに計算されるたびに,
重み付け行列Rを計算しなおして正規方程式を解く必要性
演習4.15
9
• 交差エントロピー誤差関数はwの凸関数であり,
唯一の最適解をもつ
• 証明の順序
– (1) Rが正定値行列であることを証明
– (2) 上を利用し,Hが正定値行列であることを証明
ホワイトボードで説明
補足: 正定値行列のうれしさ
• 正定値行列とは?
– 実対称行列
– 全ての固有値が正
– 任意のベクトル𝒖に対して𝒖 𝑇 𝑯𝒖 > 0
• 誤差関数が凸関数 ⇔ ヘッセ行列が正定値
• 直感的説明
– あらゆる組み合わせの2階微分が正
10
11
4.3.4
多クラスロジスティック回帰
12
多クラスロジスティック回帰
最尤法を用いて直接パラメータ{wk}を決定する
• 多クラスの分布に対して事後確率は,
• 全ての活性化関数ajに関するykの微分は,


j j
k
kk
a
a
yCp
)exp(
)exp(
)()|( 
T
kka w
)( jkjk
j
k
yIy
a
y



ここで活性化関数は,
(4.104)
(4.105)
(4.106)
13
演習4.17
• j=k のときと,j ≠ k の2通りについて計算
– ホワイトボードで計算
)( jkjk
j
k
yIy
a
y



14
尤度関数
• 尤度関数は以下のとおり
– Ckに属する特徴ベクトルΦnに対する目的変数ベクト
ルtnがk番目の要素が1で,他の要素が0
)( nknk yy 
    

N
n
K
k
N
n
K
k
t
nk
t
nkK
nknk
yCpp
1 1 1 1
1 )|(),...,|( wwT
ここで
Tはtnkを要素tnkとする目的変数のN x K行列
(4.107)
15
交差エントロピー誤差関数
• 尤度関数(4.107)の負の対数を取る
• 勾配は,ソフトマックス関数の微分(4.106)を
用いて以下のとおりになる (演習4.18)
 

N
n
K
k
nknkKK ytpE
1 1
11 ln),...,|(ln),...,( wwTww (4.108)


N
n
nnjnjKw tyEj
1
1 )(),...,( ww (4.109)
演習14.18
• ホワイトボードで説明
16
17
演習4.18 (きれいに書くと)
j
nj
N
n nj
nk
K
k
nknk
nkj
K
a
a
y
yt
y
E
ww
ww









 1 1
1
)ln(
),...,(
 




N
n
K
k
nnjkjnk
nk
nk
yIy
y
t
1 1
)( 
     






N
n
K
k
K
k
njnkkjnkn ytIt
1 1 1

  

N
n
N
n
nnjnjnjnjn tyyt
1 1
)()( 
18
多クラスのヘッセ行列
• MxMサイズのヘッセ行列のj,k成分は以下になる
• 2階微分が求まったので,IRLSによって最適化
可能
• なお,多クラスに対するヘッセ行列も正定値行
列であり,誤差関数は唯一の最小解を持つ (演
習4.20; パス)


N
n
T
nnnjkjnkK yIyEjk
1
1 )(),...,( wwww (4.110)
小休止: バッチ学習と逐次学習
• バッチ学習
– データ点すべてに対する誤差関数𝐸を考える
– 非線形最適化問題として解く
• 1次近似: 最急降下法
• 2次近似: ニュートン・ラフソン法
• 逐次学習 (オンライン学習)
– 各データ点に対する誤差関数𝐸 𝑛を考える
• ただし,𝐸 = 𝐸 𝑛𝑛
– 確率的勾配降下法 (3.22) で最適化
• 学習率𝜂を適切に設定する必要あり
• 収束しなかったら試行を繰り返す
19
バッチ学習と逐次学習の違い
• 違い
– 誤差関数の形
– パラメータ更新の方向
• 逐次学習では,なぜ学習率を適切に設定する必
要があるのか?
20
21
誤差関数が凸関数の場合,誤差関数最
適化という観点ではバッチ学習の方が
同等かそれ以上の結果が得られる
凸関数 + 凸関数 = 凸関数 はおk?
誤差関数が凸じゃないなら逐次学習の
方がうまい局所最適に落ちることもあ
るかもね.それはあくまで問題依存
凸 + 凸 = ?
22
-4 -2 0 2 4
0510152025
x
y
-4 -2 0 2 4
0510152025
凸!
23-4 -2 0 2 4
0510152025
x
y
-4 -2 0 2 4
0510152025
-4 -2 0 2 4
0510152025
-4 -2 0 2 4
0510152025
証明: 凸 + 凸 = 凸
• 凸関数f(x)とg(x)
• h(x) = f(x) + g(x)
• Jensenの不等式を利用
24
𝑓 𝜆1 𝑥1 + 𝜆2 𝑥2 ≤ 𝜆1 𝑓 𝑥1 + 𝜆2 𝑓(𝑥2)
𝑔 𝜆1 𝑥1 + 𝜆2 𝑥2 ≤ 𝜆1 𝑔 𝑥1 + 𝜆2 𝑔(𝑥2)
𝑓 𝜆1 𝑥1 + 𝜆2 𝑥2 + 𝑔 𝜆1 𝑥1 + 𝜆2 𝑥2
≤ 𝜆1(𝑓 𝑥1 + 𝑔 𝑥1 ) + 𝜆2(𝑓 𝑥2 + 𝑔 𝑥2 )
𝑕 𝜆1 𝑥1 + 𝜆2 𝑥2 ≤ 𝜆1 𝑕 𝑥1 + 𝜆2 𝑕(𝑥2)
25
誤差関数が凸関数の場合,誤差関数最
適化という観点ではバッチ学習の方が
同等かそれ以上の結果が得られる
凸関数 + 凸関数 = 凸関数 はおk?
誤差関数が凸じゃないなら逐次学習の
方がうまい局所最適に落ちることもあ
るかもね.それはあくまで問題依存
26
4.3.5 プロビット回帰
プロビット回帰
• 目的: 活性化関数の出力𝑎 𝑛に閾値を設定したい
• 𝜃の値が確率密度𝑝(𝜃)から得られる場合,活性化
関数は以下で得られる
27
𝑡 𝑛 = 1 𝑤𝑕𝑒𝑛 𝑎 𝑛 ≥ 𝜃
𝑡 𝑛 = 0 𝑜𝑡𝑕𝑒𝑟𝑤𝑖𝑠𝑒
𝑓 𝑎 = 𝑝 𝜃 𝑑𝜃
𝑎
−∞
(4.112)
(4.113)
28
erf関数
• erf関数 (誤差関数とも呼ばれる.注意)
• プロビット関数はerf関数で表現可能


a
da
0
2
)2/exp(
2
)erf( 







 )erf(
2
1
1
2
1
)( aa
(4.115)
(4.116)
(4.115)は,要するにプロビット関数の累積分布関数
⇒ 累積分布関数を活性化関数の出力として用いる
図解
• 図4.13
29
𝑝(𝜃)
𝑓(𝑎)
プロビット関数
• 𝜃 の分布を平均0,分散1のガウス分布とすると,
対応する累積分布関数は以下のとおり
– プロビット関数
30
 

a
dNa  )1,0|()( (4.114)
プロビット回帰まとめ
• プロビット回帰 (probit regression)
– プロビット関数を活性化関数とする一般化線形モデル
– ロジスティック回帰と似ている
– ロジスティック回帰に比べ,外れ値に敏感
– 活性化関数に標準ガウス分布の累積分布関数を使用
• パラメータの学習
– ロジスティック回帰と同じ方法でできる
• 𝑦𝑛の計算方法が変わるだけ
32
拡張
• いずれもデータは正しくラベル付けされていると仮定
⇒ 目的変数値tが間違った値に反転する確率εを用いて,
誤ったラベル付けの影響を組み込むことが可能
))(1()()1()|( xxx  tp
)()21( x  (4.117)
33
4.3.6 正準連結関数
今までの話の一般化
なぜ微分がいつも
「誤差」と「特徴ベクトルの積」
になるのか?
34
正準連結関数
• 一般化線形モデル
– f(・)を活性化関数,f-1(・)を連結関数と呼ぶ
• 誤差関数の微分が誤差yn – tnとΦnの積で表現可能


N
n
nnnn ytytpE
1
)}1ln()1(ln{)|(ln)( wtw (4.90)
 

N
n
K
k
nknkKK ytpE
1 1
11 ln),...,|(ln),...,( wwTww (4.108)


N
n
nnn tywE
1
)()(  (4.91)


N
n
nnjnjKw tyEj
1
1 )(),...,( ww (4.109)
ロジスティック回帰
多ロジスティック回帰
35
目的変数の条件付き確率分布
• 目的変数の条件付き確率分布
– 目的変数の分布も指数型分布族だと仮定
)(ln]|Ε[ 

 g
d
d
sty 
(4.118)













s
t
g
s
t
h
s
stp

 exp)(
1
),|(
)(y ここでyとηの関係を とする
(4.119)
36
目的変数の対数尤度関数
  








N
n
N
n
nn
nn
s
t
gstpsp
1 1
const)(ln),|(ln),|(ln

t













s
t
g
s
t
h
s
stp

 exp)(
1
),|(
パラメータに影響されない
(4.121)









N
n
n
n
n
n
nn
n
n
a
da
dy
dy
d
s
t
g
d
d
sp
1
)(ln),|(ln



tw
  nnnnn
N
n
afyyt
s
 )()(
1
1
 
モデルパラメータwに関する微分は,
対数尤度関数は,
(4.122)
(4.119)より −
1
𝑠
𝑦𝑛
37
一般化線形モデルの誤差関数
• (4.123)で表されるような連結関数f-1(y)を選択すれば,
簡略化できる
• 一般化線形モデルの誤差関数
– ガウス分布の場合s=β-1
– ロジスティックシグモイドの場合s=1


N
n
nnn ty
s
E
1
}{
1
)( w
n
T
na w
)()(1
yyf  (4.123)
これよりf(ψ(y)) = y,yで微分するとf’(ψ)ψ’(y) = 1
また,a = f-1(y)なので,a=ψであり,f’(a)ψ’(y) = 1
(4.124)
一般化線形モデルにおいて,誤差関数の微分が
誤差とΦの積で表現可能ということを示した
38
ポイントのまとめ
• ニュートン・ラフソン法を用いた最適化
– 二乗誤差: 閉じた解が求まる
– クロスエントロピー誤差: 閉じた解が求まらない
• ヘッセ行列にパラメータが含まれているため反復する必要
⇒ 反復再重み付け最小二乗
• 多クラスロジスティック回帰
– 誤差関数が凸関数になり,2クラスの場合と同様にパラメータを
求めることができる
• プロビット回帰
– 活性化関数を変えてみよう
• 正準連結関数
– 一般化線形モデルの一般化
– なぜ微分が「誤差」と「特徴ベクトル」の積になるのか
39
目次 (再掲)
• 4.4 確率的識別モデル
– 固定基底関数
– ロジスティック回帰
– 反復再重み付け最小二乗
• ニュートン・ラフソン法
– 多クラスロジスティック回帰
– プロビット回帰
– 正準連結関数
• おまけ
– バッチ学習と逐次学習
– 凸+凸=凸
40
おしまい

More Related Content

What's hot

今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)narumikanno0918
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoderSho Tatsuno
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族hiroki yamaoka
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展Deep Learning JP
 
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似KokiTakamiya
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1matsuolab
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシンYuta Sugii
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」Koichi Hamada
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデルKei Nakagawa
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布Yuki Soma
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)Yukara Ikemiya
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式Hiroshi Nakagawa
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学Ken'ichi Matsui
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 

What's hot (20)

今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
スパースモデリング、スパースコーディングとその数理(第11回WBA若手の会)
 
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
 
PRML2.4 指数型分布族
PRML2.4 指数型分布族PRML2.4 指数型分布族
PRML2.4 指数型分布族
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展[DL輪読会]Control as Inferenceと発展
[DL輪読会]Control as Inferenceと発展
 
PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似PRML 4.4-4.5.2 ラプラス近似
PRML 4.4-4.5.2 ラプラス近似
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
PRML輪読#1
PRML輪読#1PRML輪読#1
PRML輪読#1
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン深層学習 勉強会第5回 ボルツマンマシン
深層学習 勉強会第5回 ボルツマンマシン
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
パターン認識と機械学習 (PRML) 第1章-「多項式曲線フィッティング」「確率論」
 
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
 
PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布PRML 2.3節 - ガウス分布
PRML 2.3節 - ガウス分布
 
パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)パターン認識と機械学習6章(カーネル法)
パターン認識と機械学習6章(カーネル法)
 
クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式クラシックな機械学習入門:付録:よく使う線形代数の公式
クラシックな機械学習入門:付録:よく使う線形代数の公式
 
機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学15分でわかる(範囲の)ベイズ統計学
15分でわかる(範囲の)ベイズ統計学
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 

Viewers also liked

PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじsleepy_yoshi
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-sleepy_yoshi
 

Viewers also liked (6)

PRML_2.3.1~2.3.3
PRML_2.3.1~2.3.3PRML_2.3.1~2.3.3
PRML_2.3.1~2.3.3
 
PRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじPRML復々習レーン#7 前回までのあらすじ
PRML復々習レーン#7 前回までのあらすじ
 
Prml 4.3.5
Prml 4.3.5Prml 4.3.5
Prml 4.3.5
 
PRMLrevenge 4.4
PRMLrevenge 4.4PRMLrevenge 4.4
PRMLrevenge 4.4
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
 

Similar to PRML4.3.3

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ssuserf4860b
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1sleepy_yoshi
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会shima o
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter halfNarihira Takuya
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理Ryo Nakamura
 
Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定Nagi Teramo
 
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」Wataru Shito
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知hagino 3000
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜Tomoki Yoshida
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)Eric Sartre
 
経験過程
経験過程経験過程
経験過程hoxo_m
 
『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章ayato shimada
 
【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial StructuresTakeru Abe
 
K040 確率分布とchi2分布
K040 確率分布とchi2分布K040 確率分布とchi2分布
K040 確率分布とchi2分布t2tarumi
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1Tatsuki SHIMIZU
 
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...Shunsuke KITADA
 

Similar to PRML4.3.3 (20)

東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1PRML復々習レーン#9 6.3-6.3.1
PRML復々習レーン#9 6.3-6.3.1
 
連続最適化勉強会
連続最適化勉強会連続最適化勉強会
連続最適化勉強会
 
PRML chap.10 latter half
PRML chap.10 latter halfPRML chap.10 latter half
PRML chap.10 latter half
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
機械学習と深層学習の数理
機械学習と深層学習の数理機械学習と深層学習の数理
機械学習と深層学習の数理
 
Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定Rで学ぶ回帰分析と単位根検定
Rで学ぶ回帰分析と単位根検定
 
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
 
異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知異常検知と変化検知 9章 部分空間法による変化点検知
異常検知と変化検知 9章 部分空間法による変化点検知
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
 
正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
 
経験過程
経験過程経験過程
経験過程
 
『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章『劣モジュラ最適化と機械学習』 4章
『劣モジュラ最適化と機械学習』 4章
 
【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures【輪読】Bayesian Optimization of Combinatorial Structures
【輪読】Bayesian Optimization of Combinatorial Structures
 
K040 確率分布とchi2分布
K040 確率分布とchi2分布K040 確率分布とchi2分布
K040 確率分布とchi2分布
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1
 
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
Digital Image Processing Chapter 5 – Image Restoration and Reconstruction- Fr...
 

More from sleepy_yoshi

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measuressleepy_yoshi
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじsleepy_yoshi
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelssleepy_yoshi
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendationsleepy_yoshi
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじsleepy_yoshi
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するsleepy_yoshi
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじsleepy_yoshi
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5sleepy_yoshi
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじsleepy_yoshi
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Ranksleepy_yoshi
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5sleepy_yoshi
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...sleepy_yoshi
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじsleepy_yoshi
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)sleepy_yoshi
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7sleepy_yoshi
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Searchsleepy_yoshi
 

More from sleepy_yoshi (20)

KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on TwitterKDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twitter
 
KDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking MeasuresKDD2013読み会: Direct Optimization of Ranking Measures
KDD2013読み会: Direct Optimization of Ranking Measures
 
PRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじPRML復々習レーン#15 前回までのあらすじ
PRML復々習レーン#15 前回までのあらすじ
 
PRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじPRML復々習レーン#14 前回までのあらすじ
PRML復々習レーン#14 前回までのあらすじ
 
PRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじPRML復々習レーン#13 前回までのあらすじ
PRML復々習レーン#13 前回までのあらすじ
 
PRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじPRML復々習レーン#12 前回までのあらすじ
PRML復々習レーン#12 前回までのあらすじ
 
ICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic modelsICML2013読み会: Distributed training of Large-scale Logistic models
ICML2013読み会: Distributed training of Large-scale Logistic models
 
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and RecommendationSEXI2013読み会: Adult Query Classification for Web Search and Recommendation
SEXI2013読み会: Adult Query Classification for Web Search and Recommendation
 
PRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじPRML復々習レーン#11 前回までのあらすじ
PRML復々習レーン#11 前回までのあらすじ
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
PRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじPRML復々習レーン#10 前回までのあらすじ
PRML復々習レーン#10 前回までのあらすじ
 
PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5PRML復々習レーン#10 7.1.3-7.1.5
PRML復々習レーン#10 7.1.3-7.1.5
 
PRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじPRML復々習レーン#9 前回までのあらすじ
PRML復々習レーン#9 前回までのあらすじ
 
SIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to RankSIGIR2012勉強会 23 Learning to Rank
SIGIR2012勉強会 23 Learning to Rank
 
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
DSIRNLP#3 LT: 辞書挟み込み型転置インデクスFIg4.5
 
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
ICML2012読み会 Scaling Up Coordinate Descent Algorithms for Large L1 regularizat...
 
PRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじPRML復々習レーン#3 前回までのあらすじ
PRML復々習レーン#3 前回までのあらすじ
 
SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)SVM実践ガイド (A Practical Guide to Support Vector Classification)
SVM実践ガイド (A Practical Guide to Support Vector Classification)
 
PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7PRML復々習レーン#2 2.3.6 - 2.3.7
PRML復々習レーン#2 2.3.6 - 2.3.7
 
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical SearchWSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
WSDM2012読み会: Learning to Rank with Multi-Aspect Relevance for Vertical Search
 

Recently uploaded

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 

Recently uploaded (8)

CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 

PRML4.3.3