SlideShare a Scribd company logo
続・わかりやすい
パターン認識
@teramonagi
第11章 (11.1-11.4)
ノンパラメトリックベイズモデル
誰や?
俺や
• ID: @teramonagi
• 職種:データ分析おじさん
• 業務:ブカーの育成&会議&Code
• 言語:/R/F#/Python/C++/Ruby/
• 特技:早起き・根回し
3
優秀な新人怖い
11.1: 分割の確率モデル
4
これまでのクラスタリング
• 9-10章で扱ったクラスタリング手法
–混合正規分布のパラメータ推定
–K-Means法
–凸クラスタリング法
• これらはクラスタ構造のモデル化が欠如
• クラスタ構造をモデリングし、クラスタ
リング実行中に最適なクラスタ数が自動
決定される手法が欲しい
5
ノンパラメトリックベイズモデル
• そんな時のためのノンパラメトリックベイズ
• (今まで)最尤推定 → ベイズ推定
• ベイズ推定に基づきクラスタリング構造も事
前分布としてモデル化する
• 方法は大きく分けて2つ(次ページ)
• 定義
–パターン集合:
–クラスタ集合:
–クラスタのパラメータ:
6
クラスタリング法1
• パターンの所属クラスタsおよび、
そのクラスタのパラメータθの双
方を決定する
7
事後確率
MAP推定値
クラスタリング法2
• パターンの所属クラスタのみを決
定する
• クラスタのパラメータθは不要な
ので積分消去(Marginal out)
8
事後確率
MAP推定値
解決すべき問題
• 問題1:クラスタの事前確率p(s)の設定
• 答:分割の確率モデルを用いる(11.2,
11.3)
• 問題2:事後分布p(s, θ|x), p(s|x)を最大化
するための計算をどうするか
• 答:ギブスサンプリング(12.1)
9
※ここでは単一割り当てを仮定し、特にディリクレ過程を詳細に説明、
多重割り当ての場合はベータベルヌーイ過程については(A.7)で
11.2: ホップの壺モデル
10
ホップの壺モデル
• Hoppe’s urn model
• 壺に1個の黒玉と他の色の玉(色
玉)が混在
• 玉の重さ:黒玉(α)・他の色(1)
• 次ページに示すルールに従って、
壺から玉を出し入れする
11
ホップの壺モデル
1. 壺の中に黒玉が1個入ってる
2. 玉の重さに比例した確率で玉を
1つ取りだす
3. If 玉色=黒→新色玉を1つ追加・
黒玉戻す
4. Else その色と同じ玉を1つ追加
5. 2に戻る
12
ホップの壺モデル(例)
13
α/α
はじめ 黒玉選択 新色(赤)追加
※壺中の数値は玉の選択確率
ホップの壺モデル(例)
14
黒玉選択
α/(1+α)
新色(黄)追加
1/(2+α)
黄玉選択
ホップの壺モデル(例)
15
同色追加 赤玉選択 同色追加
1/(3+α)
ホップの壺モデル(例)
16
赤玉選択 同色追加 黒玉選択
2/(4+α) α/(5+α)
ホップの壺モデル(例)
17
新色(緑)追加 おしまい
…となる確率
R:赤
Y:黄
G:緑
この例となる確率
18
上昇階乗:
色が入る順番を入れ替える
• 色が入る順番を入れ替えて、確率
を計算してみると…
• 前の結果
19
確率一致!
イーウェンスの抽出公式
• 今の話の一般化
–確率は色の順番に非依存
–色玉の種類数とその個数のみに依存
20
第i色の色玉
の個数n_i
イーウェンスの抽出公式
• 特徴1:交換可能性
–色玉の組み合わせの確率は、玉を入れ
る順番に非依存
• 特徴2:クラスタ数の非規定
–壺に入れられる色玉の種類は試行とと
もに増加
• 特徴3:クラスタ数の調整
–αの値大→色玉の種類増
–αの値小→色玉の種類減
21
11.3: 中華料理店過程
22
中華料理店過程
• Chinese Restaurant Process, CRP
• ホップの壺モデルの特徴を全て満
たす(等価な)分割の確率モデル
• 中華料理店の複数のテーブルに順
次客が着席
• 同テーブルの客を1つのまとまり
と考える
23
中華料理店過程
• 最初の客は任意のテーブルに着席
• N番目以降の客
–既にn_i人着席しているテーブルi
に確率n_i/(n-1+α)
–誰も着席していない最も番号の小
さいテーブルに確率α/(n-1+α)
で着席
(nは自分も含めて数える!!!)
24
中華料理店過程(例)
• 6番目の客のテーブル選択
25
テーブル
1
テーブル
2
テーブル
3
1 2
34
5
3/(5+α) 2/(5+α) α/(5+α)
※↑は6番目の客が各テーブルを選択する確率
中華料理店過程(例)
• 6人の客が順にテーブル1,2,2,1,1,3に着席する確率
26
テーブル
1
テーブル
2
テーブル
3
1 2
34
5
6
中華料理店過程(例)
• 6人の客が順にテーブル1,1,2,1,2,3に着席する確率
27
テーブル
1
テーブル
2
テーブル
3
1 3
52
4
6
※順番を変えても着席確率は不変!
中華料理店過程の特徴
• 特徴1:交換可能性
–着席確率は客の到着順序に非依存
• 特徴2:クラスタ数の非規定
–着席しているテーブルの数は客の到来と
ともに増大する
• 特徴3:クラスタ数の調整
–αの値大→空席でないテーブルが増加
–αの値小→特定のテーブルに固まりやすい
• これらの特徴はホップの壺モデルの特徴と
一対一対応(客の着席⇔色玉の追加)
28
11.4: 事前確率のための確率モデル
29
クラスタリングと2つのモデルの関係
クラスタリング ホップの壺モデル CRP
k番目のパター
ン
壺に入れるk番目の
玉
k番目の来店客
総パターン数: n 壺中の色玉の総数 来店客総数
クラスタ: ω_i 第i色 テーブルi
クラスタ数: c 色の種類数 使用テーブル数
ω_iに属するパ
ターン数: n_i
壺中の第i色の玉の
数
テーブルiに着席
した客の数
30
テーブルへの分割方法とその生起確率
(n=4, α=2)
(a)テーブル数c (b)テーブルの客数 客の分割方法 (d)生起確率
1 (4) (① ② ③ ④) 1/10
2
(2, 2)
(① ②) (③ ④) 1/30
(① ③) (② ④) 1/30
(① ④) (② ③) 1/30
(3, 1)
(① ② ③) (④) 1/15
(① ② ④) (③) 1/15
(① ③ ④) (②) 1/15
(② ③ ④) (①) 1/15
3 (2, 1, 1)
(① ②) (③) (④) 1/15
(① ③) (②) (④) 1/15
(① ④) (②) (③) 1/15
(② ③) (①) (④) 1/15
(② ④) (①) (③) 1/15
(③ ④) (①) (②) 1/15
4 (1, 1, 1, 1) (① ② ③ ④) 2/15 31
演習問題11.1(2)の答え
• n人の客をn1, …, nc人ずつc個の
テーブルに分割する方法の数N1
(テーブルの区別なし)
• 間違ってたら正直スマン
32
CRPからピットマン・ヨー過程へ
• CRP
– 既にn_i人着席しているテーブルiに確率
n_i/(n-1+α)
– 誰も着席していない最も番号の小さいテーブ
ルに確率α/(n-1+α)
• ピットマン・ヨー過程
– 既にn_i人着席しているテーブルiに確率(n_i-
β)/(n-1+α)
– 誰も着席していない最も番号の小さいテーブ
ルに確率(α+cβ) /(n-1+α)
• β=0でCPRに帰着
33
CRPからピットマン・ヨー過程へ
• CRPでのテーブル数cの期待値
• ピットマン・ヨー過程でのテーブ
ル数cの期待値(べき乗則)
34
ピットマン・ヨー過程
• 使用テーブル数の期待値が、べき
乗則に従う(y=ax^b)
• 値の範囲が非常に広くなるロング
テールな現象が現れる
• 頑張ってシミュレーションしてみ
た
35
図11.5 CRPにおける使用テーブル数の変化
36
α=10
α=2
来客数n
使用テーブル数c
図11.6 CRPにおけるテーブルと着席客数(n=1000人)
37テーブル
各テーブルの客数
α=2・使用テーブル数=14
(テキストに無いケースなんだ、すまない)
図11.7 ピットマン・ヨー過程における使用テーブル数の変化
38来客数n
使用テーブル数c
β=0.4
β=0.3
β=0.2
β=0(CRP)
図11.8 べき乗則に従うピットマン・ヨー過程(n=10^5人)
39テーブル
各テーブルの客数
ピットマン・ヨー(β=0.8)
CPR(β=0)
直線
ピットマン・ヨー過程兼CPRのコード
40
#ピットマン・ヨー過程+CRPを生成する関数
pitman_yor <- function(size, alpha, beta)
{
table <- c(1)
x <- matrix(c(1,1), ncol=2)
for(n in seq_len(size))
{
denominator <- sum(table) + alpha
prob <- c(table - beta, alpha + (length(table)-1)*beta)/denominator
i <- sample(1:(length(table)+1), 1, prob=prob)
table[i] <- ifelse(is.na(table[i]), 0, table[i]) + 1
x <- rbind(x, c(n, length(table)))
}
list(x=x, table=sort(table, decreasing=TRUE))
}
ピットマン・ヨー過程兼CPRのコード
41
#図11.5
x10 <- pitman_yor(10^3, 10 , 0)
x2 <- pitman_yor(10^3, 2 , 0)
ylim <- range(x10$x[,2])
plot(x10$x, ylim=ylim)
par(new=T)
plot(x2$x, ylim=ylim)
#図11.6
x <- pitman_yor(10^3, 2 , 0)
barplot(x$table, names.arg=seq_len(length(x$table)))
ピットマン・ヨー過程兼CPRのコード
42
#図11.7
x4 <- pitman_yor(10^3, 2, 0.4)
x3 <- pitman_yor(10^3, 2, 0.3)
x2 <- pitman_yor(10^3, 2, 0.2)
x0 <- pitman_yor(10^3, 2, 0.0)
ylim <- range(x4$x[,2])
plot(x4$x, ylim=ylim)
par(new=T)
plot(x3$x, ylim=ylim)
par(new=T)
plot(x2$x, ylim=ylim)
par(new=T)
plot(x0$x, ylim=ylim)
ピットマン・ヨー過程兼CPRのコード
43
#図11.8
ylim <- range(c$table)
xlim <- range(seq_len(length(p$table)))
plot(seq_len(length(c$table)), c$table, log="xy", xlim=xlim, ylim=ylim)
par(new=T)
plot(seq_len(length(p$table)), p$table, log="xy", xlim=xlim, ylim=ylim)
おしまい
44

More Related Content

What's hot

今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索
Shiga University, RIKEN
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
Kenjiro Sugimoto
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
Shiga University, RIKEN
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!takehikoihayashi
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
Hiroshi Shimizu
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心takehikoihayashi
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
sleepy_yoshi
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
Satoshi Hara
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
Takao Yamanaka
 

What's hot (20)

今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
 
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
 
非ガウス性を利用した 因果構造探索
非ガウス性を利用した因果構造探索非ガウス性を利用した因果構造探索
非ガウス性を利用した 因果構造探索
 
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説因果探索: 基本から最近の発展までを概説
因果探索: 基本から最近の発展までを概説
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
 
負の二項分布について
負の二項分布について負の二項分布について
負の二項分布について
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
Chapter2.3.6
Chapter2.3.6Chapter2.3.6
Chapter2.3.6
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
 
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
 
CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算CVIM#11 3. 最小化のための数値計算
CVIM#11 3. 最小化のための数値計算
 
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
 
アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法アンサンブル木モデル解釈のためのモデル簡略化法
アンサンブル木モデル解釈のためのモデル簡略化法
 
混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)混合モデルとEMアルゴリズム(PRML第9章)
混合モデルとEMアルゴリズム(PRML第9章)
 

Viewers also liked

5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnetNagi Teramo
 
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
aich_08_
 
はじパタ11章 後半
はじパタ11章 後半はじパタ11章 後半
はじパタ11章 後半Atsushi Hayakawa
 
階層ディリクレ過程事前分布モデルによる画像領域分割
階層ディリクレ過程事前分布モデルによる画像領域分割階層ディリクレ過程事前分布モデルによる画像領域分割
階層ディリクレ過程事前分布モデルによる画像領域分割
tn1031
 
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
Prunus 1350
 
とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)
Katsuya Ito
 
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
Atsushi Hayakawa
 
Techtalk:多様体
Techtalk:多様体Techtalk:多様体
Techtalk:多様体
Kenta Oono
 
第14章集団学習
第14章集団学習第14章集団学習
第14章集団学習Kei Furihata
 
第一回卒研発表会
第一回卒研発表会第一回卒研発表会
第一回卒研発表会syou6162
 
Beautiful woRld
Beautiful woRldBeautiful woRld
Beautiful woRld
Takao Yokoyama
 
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)hoxo_m
 
20131031 首都大学東京 cloud_computing講演会 講演資料(野上)
20131031 首都大学東京 cloud_computing講演会 講演資料(野上)20131031 首都大学東京 cloud_computing講演会 講演資料(野上)
20131031 首都大学東京 cloud_computing講演会 講演資料(野上)
Daisuke Nogami
 
入門機械学習6章
入門機械学習6章入門機械学習6章
入門機械学習6章
Kazufumi Ohkawa
 
大阪PRML読書会#1資料
大阪PRML読書会#1資料大阪PRML読書会#1資料
大阪PRML読書会#1資料
Hiromasa Ohashi
 
機械学習
機械学習機械学習
機械学習
Hikaru Takemura
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
Shiga University, RIKEN
 
Pylm public
Pylm publicPylm public
Pylm public
Kei Uchiumi
 

Viewers also liked (20)

5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet5分でわかるかもしれないglmnet
5分でわかるかもしれないglmnet
 
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
「続・わかりやすいパターン認識」 第12章 ディリクレ過程混合モデルによるクラスタリング(前半 : 12.1 )
 
はじパタ11章 後半
はじパタ11章 後半はじパタ11章 後半
はじパタ11章 後半
 
階層ディリクレ過程事前分布モデルによる画像領域分割
階層ディリクレ過程事前分布モデルによる画像領域分割階層ディリクレ過程事前分布モデルによる画像領域分割
階層ディリクレ過程事前分布モデルによる画像領域分割
 
はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2はじめてのパターン認識 第11章 11.1-11.2
はじめてのパターン認識 第11章 11.1-11.2
 
とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)とぽろじー入門(画像なし版)
とぽろじー入門(画像なし版)
 
第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半第六回「データ解析のための統計モデリング入門」前半
第六回「データ解析のための統計モデリング入門」前半
 
HMM viterbi
HMM viterbiHMM viterbi
HMM viterbi
 
Techtalk:多様体
Techtalk:多様体Techtalk:多様体
Techtalk:多様体
 
第14章集団学習
第14章集団学習第14章集団学習
第14章集団学習
 
第一回卒研発表会
第一回卒研発表会第一回卒研発表会
第一回卒研発表会
 
Beautiful woRld
Beautiful woRldBeautiful woRld
Beautiful woRld
 
データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)データの不備を統計的に見抜く (Gelman’s secret weapon)
データの不備を統計的に見抜く (Gelman’s secret weapon)
 
20131031 首都大学東京 cloud_computing講演会 講演資料(野上)
20131031 首都大学東京 cloud_computing講演会 講演資料(野上)20131031 首都大学東京 cloud_computing講演会 講演資料(野上)
20131031 首都大学東京 cloud_computing講演会 講演資料(野上)
 
入門機械学習6章
入門機械学習6章入門機械学習6章
入門機械学習6章
 
Prml
PrmlPrml
Prml
 
大阪PRML読書会#1資料
大阪PRML読書会#1資料大阪PRML読書会#1資料
大阪PRML読書会#1資料
 
機械学習
機械学習機械学習
機械学習
 
構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性構造方程式モデルによる因果探索と非ガウス性
構造方程式モデルによる因果探索と非ガウス性
 
Pylm public
Pylm publicPylm public
Pylm public
 

More from Nagi Teramo

第86回R勉強会@東京 LT資料
第86回R勉強会@東京 LT資料第86回R勉強会@東京 LT資料
第86回R勉強会@東京 LT資料
Nagi Teramo
 
Rでを作る
Rでを作るRでを作る
Rでを作る
Nagi Teramo
 
Reproducebility 100倍 Dockerマン
Reproducebility 100倍 DockerマンReproducebility 100倍 Dockerマン
Reproducebility 100倍 Dockerマン
Nagi Teramo
 
healthplanetパッケージで 体組成データを手に入れて 健康な体も手に入れる
healthplanetパッケージで体組成データを手に入れて健康な体も手に入れるhealthplanetパッケージで体組成データを手に入れて健康な体も手に入れる
healthplanetパッケージで 体組成データを手に入れて 健康な体も手に入れる
Nagi Teramo
 
闇と向き合う
闇と向き合う闇と向き合う
闇と向き合う
Nagi Teramo
 
機械の体を手に入れるのよ、 鉄郎!!!
機械の体を手に入れるのよ、鉄郎!!!機械の体を手に入れるのよ、鉄郎!!!
機械の体を手に入れるのよ、 鉄郎!!!
Nagi Teramo
 
Ultra Lightning Talk × 3
Ultra Lightning Talk × 3Ultra Lightning Talk × 3
Ultra Lightning Talk × 3
Nagi Teramo
 
F#談話室(17)
F#談話室(17)F#談話室(17)
F#談話室(17)
Nagi Teramo
 
RFinanceJはじめました
RFinanceJはじめましたRFinanceJはじめました
RFinanceJはじめました
Nagi Teramo
 
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
Nagi Teramo
 
お前の逐モン、GETだぜ!
お前の逐モン、GETだぜ!お前の逐モン、GETだぜ!
お前の逐モン、GETだぜ!
Nagi Teramo
 
Trading volume mapping R in recent environment
Trading volume mapping R in recent environment Trading volume mapping R in recent environment
Trading volume mapping R in recent environment
Nagi Teramo
 
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
Nagi Teramo
 
とある金融屋の統計技師が時系列解析してみた
とある金融屋の統計技師が時系列解析してみたとある金融屋の統計技師が時系列解析してみた
とある金融屋の統計技師が時系列解析してみた
Nagi Teramo
 
可視化周辺の進化がヤヴァイ~rChartsを中心として~
可視化周辺の進化がヤヴァイ~rChartsを中心として~可視化周辺の進化がヤヴァイ~rChartsを中心として~
可視化周辺の進化がヤヴァイ~rChartsを中心として~
Nagi Teramo
 
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
Nagi Teramo
 
Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」
Nagi Teramo
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
Nagi Teramo
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法
Nagi Teramo
 
Rで学ぶ『構造型モデル de 倒産確率推定』
Rで学ぶ『構造型モデル de 倒産確率推定』Rで学ぶ『構造型モデル de 倒産確率推定』
Rで学ぶ『構造型モデル de 倒産確率推定』
Nagi Teramo
 

More from Nagi Teramo (20)

第86回R勉強会@東京 LT資料
第86回R勉強会@東京 LT資料第86回R勉強会@東京 LT資料
第86回R勉強会@東京 LT資料
 
Rでを作る
Rでを作るRでを作る
Rでを作る
 
Reproducebility 100倍 Dockerマン
Reproducebility 100倍 DockerマンReproducebility 100倍 Dockerマン
Reproducebility 100倍 Dockerマン
 
healthplanetパッケージで 体組成データを手に入れて 健康な体も手に入れる
healthplanetパッケージで体組成データを手に入れて健康な体も手に入れるhealthplanetパッケージで体組成データを手に入れて健康な体も手に入れる
healthplanetパッケージで 体組成データを手に入れて 健康な体も手に入れる
 
闇と向き合う
闇と向き合う闇と向き合う
闇と向き合う
 
機械の体を手に入れるのよ、 鉄郎!!!
機械の体を手に入れるのよ、鉄郎!!!機械の体を手に入れるのよ、鉄郎!!!
機械の体を手に入れるのよ、 鉄郎!!!
 
Ultra Lightning Talk × 3
Ultra Lightning Talk × 3Ultra Lightning Talk × 3
Ultra Lightning Talk × 3
 
F#談話室(17)
F#談話室(17)F#談話室(17)
F#談話室(17)
 
RFinanceJはじめました
RFinanceJはじめましたRFinanceJはじめました
RFinanceJはじめました
 
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
東京R非公式おじさんが教える本当に気持ちいいパッケージ作成法
 
お前の逐モン、GETだぜ!
お前の逐モン、GETだぜ!お前の逐モン、GETだぜ!
お前の逐モン、GETだぜ!
 
Trading volume mapping R in recent environment
Trading volume mapping R in recent environment Trading volume mapping R in recent environment
Trading volume mapping R in recent environment
 
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』~knitr+pandocではじめる~『R MarkdownでReproducible Research』
~knitr+pandocではじめる~『R MarkdownでReproducible Research』
 
とある金融屋の統計技師が時系列解析してみた
とある金融屋の統計技師が時系列解析してみたとある金融屋の統計技師が時系列解析してみた
とある金融屋の統計技師が時系列解析してみた
 
可視化周辺の進化がヤヴァイ~rChartsを中心として~
可視化周辺の進化がヤヴァイ~rChartsを中心として~可視化周辺の進化がヤヴァイ~rChartsを中心として~
可視化周辺の進化がヤヴァイ~rChartsを中心として~
 
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
 
Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」Tokyo.R 白熱教室「これからのRcppの話をしよう」
Tokyo.R 白熱教室「これからのRcppの話をしよう」
 
レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成レプリカ交換モンテカルロ法で乱数の生成
レプリカ交換モンテカルロ法で乱数の生成
 
Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法Rで学ぶ逆変換(逆関数)法
Rで学ぶ逆変換(逆関数)法
 
Rで学ぶ『構造型モデル de 倒産確率推定』
Rで学ぶ『構造型モデル de 倒産確率推定』Rで学ぶ『構造型モデル de 倒産確率推定』
Rで学ぶ『構造型モデル de 倒産確率推定』
 

続わかりやすいパターン認識11章(11.1 - 11.4)