SlideShare a Scribd company logo
1 of 24
Download to read offline
通信路モデル
Bayes統計
最尤推定とMAP推定
データの性質
1.導入
クラシックな機械学習の入門
by 中川裕志(東京大学)
 情報源を記号列(例えば単語列
あるいは文字列)とする
 Noisy Channel Model
機械学習の先史時代
--情報の変換過程のモデル化--
情報源記号
列:t
tx
情報変換
雑音(N(0,σ2) etc)
推定処理 :推定さ
れた情報
源記号列
出力された記号
列=推定処理
への入力
x
出力された記号列=推定処理への入力データxから
情報源記号列tを推定し を計算する
tˆ
tˆ
 Bayesの定理
 P(t|x)は、新たな出力記号列xが得られたときの情
報源から出力された記号列 t を推定する式で、これ
を最大化する t すなわち
を求めるのが目標。
 ところが、このままでは、既に得られている情報を
使えないので、Bayesの定理で変換する。
 すると、既知の情報源状態と出力記号列のペアに
関する条件付き確率P(x|t) (=教師データ)
 情報源についての事前知識P(t)が使える形になる。
Bayes統計の意義
)(
)()|(
)|(
xP
tPtxP
xtP 
 xtPt
t
|maxargˆ 
Bayes統計とは
1. 常にBayesの定理を用いる
2. 用いられる確率は主観確率(=確信度)
3. 事前情報を利用する
4. 未知量(確率分布のパラメター)は確率的に
変動
5. 観測されたデータは絶対的
6. 推測は常に条件付
7. アドホックな手続きを認めない
Bayes統計を用いた情報変換過程のモデルに
おける出力データからの情報源の推定方法
 通信路を条件付確率でモデル化:P(x|t)
 目的は x が観測されたときの t の確率すなわち事後確率
P(t|x)を最大化する情報源の確率。
 P(t)は情報源記号列の既知の統計的性質が利用できる
 P(x|t) は情報源記号列tが情報変換およびnoisy channelの
雑音によってx毎に変化する確率。
 この確率は多数の<t,x>対の観測データにより計算する
)()|(maxarg
)|(maxargˆ
tPtxP
xtPt
t
t


 
よりここでベイズの定理に
情報変換過程モデルの適用例
 例:機械翻訳
P(t|x) は元言語のテキスト x(既知)が翻訳先言語
のテキスト t に翻訳される確率
P(x|t) はtという翻訳結果に対する元言語のテキス
トがxである確率
P(t) 翻訳先言語におけるテキストtの自然さ。例え
ば、N単語列のコーパスにおける 単語3-gram確率
以上の設定で下の式 は機械翻訳の出力
この考え方を元にしたのが現在主流となってきてい
る統計的機械翻訳(IBMで1993年に開発された)
)()|(maxarg)|(maxargˆ tPtxPxtPt
tt

tˆ
元言語
x:私がリンゴを食べる
機械
翻訳
翻訳先言語
t: I eat an apple
日英機械翻訳の例
 P(リンゴを食べる|eats an apple)=0.3
 P(リンゴを食べる|eats apples)=0.2
 P(彼は|He)=1.0
 P(He eats apples)=0.2、P(He eats an apple)=0.5
 P(He eats an apple|彼はリンゴを食べる)
 =1.0x0.3x0.5=0.15
 P(He eats apples|彼はリンゴを食べる)
 =1.0x0.2x0.2=0.04
“He eats an apple”のほうが良い英訳
 事前知識として P(He eats apple)=0.0 があれば
非文P(He eats apple)=0にできるのがベイズの強み
 例:文書分類
P(t|x) においてxが与えられた文書、tがカテゴリ
P(t) はカテゴリtの文書の出現確率
P(x|t)はカテゴリtにおいて文書xが出現する確率
このモデル化にはいろいろな方法があるが、簡単なの
は、出現する単語w1,…wN
P(x|t) =P(w1,…wN|t)だが、 このままでは計算しにくい
のでw1,…wNが独立だとすると
これを naïve Bayse 分類とよぶ。
)()|(maxargˆ tPtxPt
t
推定されたカテゴリ:


N
n
nN twPtwwP
1
1 )|()|,...,(
Why?
文書分類の例:長澤まさみ vs 上野樹里
「長澤まさみ」関連の文書に高い確率で出現
する単語
主演、映画、東宝、吉田礼、薬師丸ひろ子、サッカー、
「上野樹里」関連の文書に高い確率で出現す
る単語
主演、のだめ、カンタービレ、ドラマ、ラスト、フジテレビ、
分類したい文書:Dの含む単語は
主演、ラスト、フレンズ
P(主演|長澤)=0.1、P(主演|上野)=0.1
P(ラスト|長澤)=0.2、P(ラスト|上野)=0.2
P(フレンズ|長澤)=0.2、P(フレンズ|上野)=0.2
Googleのヒット数から推定したところ、
P(長澤)=0.6、 P(上野)=0.4
 P(長澤|D)=P(D|長澤)P(長澤)
=P(主演|長澤)P(ラスト|長澤)P(フレンズ|長澤)P(長澤)
=0.1x0.2x0.2x0.6=0.0024
 P(上野|D)=P(D|上野)P(上野)
=P(主演|上野)P(ラスト|上野)P(フレンズ|上野)P(上野)
=0.1x0.2x0.2x0.4=0.0016
よって、文書Dは長澤に分類
しかし、Dに「カンタービレ」という単語も含まれ、
P(カン..|長澤)=0.1、P(カン..|上野)=0.8だと
P(長澤|D)=0.00024、P(上野|D)=0.00128
で文書Dは上野に分類。 直感にあっているようだ!
教師あり学習
 上記の例では、情報源のモデルであるP(t)やP(x|t)は単に出現
確率だったが、ここで適切な確率分布を考えることが可能
 すると、その分布を決めるパラメターを推定する必要が出てく
る。
 そのために<t,x>という情報源の状態と出力データの対デー
タが多数入手できれば利用する。
 この<t,x>を教師データ(あるいは観測データ)と呼ぶ。
 すると、機械学習の中心となる教師あり学習は、
確率分布P(t)、P(x|t)のパラメターを
教師データ<t,x>を利用して求める
という問題になる。
教師なし学習
 教師あり学習では教師データ<t,x>の集合が与えられた状態
で、P(t)やP(x|t)のパラメターを求めた。
 しかし、データ<x>の集合だけが与えられていて(tは与えら
れていない)ときはどうする?
データ<x>の集合から、P(x)のパラメターだ
けを求めることになる。
 直観的には、データ<x>を類似したものにグループ化する
 クラスタリングと言い、グループのことをクラスタと呼ぶ。
これを教師なし学習と呼ぶ。
識別モデルと生成モデル
 入力データxに対応する予測値tを求める
 識別モデル(discrimiative model):p(t|x)を直接モデ
ル化する。 このp(t|x)によって、未知のxに対するtを
予測(あるいは推定)する方法
t=f(x)となる関数を直接求めるものもあり。
 生成モデル(generative model):ベイズの定理で
p(t|x)をp(x|t)p(t)/p(x)に変換。p(x|t)を学習。p(t)を事
前データから求める。これと既知の<x,t>のペアの
データからp(x|t)のパラメターを更新。これによって、
未知のxに対するtを求めるp(t|x)の確率分布をモデ
ル化する。
事前
分布
観測データが知られて後のp(x|t)の事後分布
 |XP ˆ
 

|,...,maxargˆ
1 NXXP
 

|,...,logmaxargˆ
1 NXXP 
 P
   
個の観測データはただし、
 
N,..,XX
PXXP
N
N
1
1 |,...,logmaxargˆ 


、
最尤推定とMAP推定
最尤推定
分布 のパラメタ-θの推定値 を以下の式で求
める
あるいは対数をとり推定:対数尤度の最大化
MAP推定(事後確率の最大化)
事前確率 が与えられていたときには、次式のように
事後分布の確率を最大化するパラメタ-を求める
    XX
XP


1
1 問題1 (Xiは、0か1)で定義されるベルヌ-
イ試行を独立にN回繰り返したとき、0がm回、1がN-m回
観測されたとする。最尤推定して θを求めよ
また、事前分布として、
のときのMAP推定した θ を求めよ。
この場合の結果の意味を考察せよ。
問題2 次式の多項分布
において最尤推定して θi を求めよ。
事前分布が、
の場合の、MAP推定した θi を求めよ
  10   ただし、bP
  1
!!
!
1
1
1
1
 
K
k
k
X
K
X
K
K
XX
N
XP  

   
   
11
1
1
1 1 


 K
K
K
K
P 



 


今までは、情報源の記号tと出力記号列(=
直接に観測されたデータ)xは、機械学習にお
いて直接に計算の対象としていた。
この仮定が成立する場合も多い。
身長、体重、薬の濃度、価格、などの(連続)数値データ
人数、個数、などの整数をとる数値データ
割合、%など
男女、国籍など属性が記号の場合(整数に変換すれば数
値として処理可能)
しかし、必ずしも直接に観測されたデータだけ
を使える場合ばかりではない。
データの性質
観測データを表す情報の次元
観測データ点が人間の場合の例
x=(身長、体重、血圧、収入金額)T数値だけな
ので簡単。単位は外部知識とする。
Ex (170, 50, 120, 10,000,000)
確率分布としては正規分布など。
x=(職業、発熱)T 記号。2つの方法
記号に番号を与える。Ex 無職=0, 学生=1,..、発熱
無=0、有=1
確率分布としては離散数値をとる分布など。数値の意味付け
が難しい。
記号の種別ごとに1次元を与える(次のページ参照)
記号の種類ごとに次元を割り当てる方法
 x=(訪問国1、,…,訪問国N)T ex(USA,UK,Italy) T
対策:国を番号つける。
(USA=1, UK=2, Japan=3, China=4, Italy=5,…)
この番号がベクトルの何番目の要素かを示すとして、数
値のベクトルとして表現 : Bernoulli分布:
上のexは (1,1,0,0,1,….) T
このベクトルの次元は世界中の国の数だけあるため、か
なり大きい。しかし、観測データには0が多く、スパースな
データ
 記号の出現回数のある場合
x=((訪問国1、滞在日数1),…,(訪問国N、滞在日数))T
 ex((USA,15),(UK,5),(Italy,3)) T  (15,5,0,0,3,….) T
多項分布:
xx
xBern 
 1
)1()|( 

300515
,...),,,,|,...3,0,0,5,15(
ItalyChinaJapanUKUSA
ItalyChinaJapanUKUSAMult



次元の大きさ
 国と滞在日数の例と同じタイプの問題を、テキストデ
ータで考えてみよう。
 あるテキストを表現するには、そのテキストに出現し
た各単語の個数で表現する。
次元は語彙数 日本語の新聞では約40万語。固有名詞
や複合語まで入れると、100万以上。 100万次元の
ベクトルを扱う必要あり!
個々の単語だけを対象にすれば済むのか?
ABC証券、ABC証券株式会社、… 、総理が失言、総理が訂正、
…、というような単語の連鎖で見ないと分からない場合は?
N単語の連鎖(=N-gram)の種類数は、100万のN乗!!!
しかし、このような多次元がすべて重要な情報だとも思えない
次元圧縮の技術が有望 i.e. Singular Value Decomposition
(SVD)とかLatent Semantic Indexing(LSI)
特殊性を表すデータ 1
これまでに示したデータ点の数値は、観測さ
れた数値(出現回数など)を直接使っていた。
観測データ全体の構造を利用したtf*idfと呼
ばれる数値も有力
データ点頻度 Data point Frequency : DF
ただし、DF(j)はj番目の次元のデータが0でな
いデータ点の数
また、観測データ点の総数をNとする。
特殊性を表すデータ 2
データ点頻度 Data point frequency:DF
ただし、DF(j)はj番目の次元のデータが0でな
いデータ点の数
また、観測データ点の総数をNとする。
IDF(j)=1/DF(j)
TF(i,j)=観測データ点iで第j次元のデータの
出現回数
TF*IDFの定義:
DF(j)
logj)TF(i,j)IDF(i,*TFw ji,
N

例
 データ例
旅行者a:(USA=10, UK=2, Japan=3, China=0, Italy=0)
旅行者b:(USA=0, UK=2, Japan=0, China=4, Italy=0)
旅行者c:(USA=5, UK=0, Japan=2, China=0, Italy=0)
旅行者d:(USA=2, UK=0, Japan=1, China=2, Italy=1)
 DF(USA)=3, DF(UK)=2, DF(JP)=3. DF(CH)=2, DF(IT)=1
 N/DF(..)は USA=4/3, UK=4/2, JP=4/3, CH=4/2, IT=4/1
 TF*IDF(USA,a)=10*log(4/3)=4.114, TF*IDF(USA,b)=0
TF*IDF(UK,a)=2*log(4/2)=2
TF*IDF(IT,d)=1*log(4/1)=2
特殊性を表すデータ 3
TF*IDFの定義:
TF*IDF(i,j)は、データ点: iだけで特別に多く
現れる次元: jの数値を表す。
例えば、新聞の1記事を観測データ点とし、次元
を単語とすると、TF*IDF(i,j)の大きな単語iは、偏
りのある特殊ないし専門の単語、小さな単語は一
般的な単語といえる。
TF*DIFを用いて観測データ点を表現しなお
すと、いろいろなことが見えてくることがある。
DF(j)
logj)TF(i,j)IDF(i,*TFw ji,
N

観測データ点を多次元空間中の点と定義
そこで2つの問題
各次元は観測データ点からどのように定義するか
次元のことをfeatureあるいは素性(そせい)と呼ぶ
この問題をfeature design :素性設計と呼ぶ。例えば、
 2つの素性の比を新たな素性とする ex 身長/体重
 2つの素性の連続したもの ex 日本・銀行、 日本・沈没、
しかし、これは個別適用分野に応じて工夫すべし。
多次元空間における2点間の距離の定義
ユークリッド距離ばかりではないのだ!
この話は後にまた丁寧にします。
距離の定義

More Related Content

What's hot

Sift特徴量について
Sift特徴量についてSift特徴量について
Sift特徴量についてla_flance
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解Koji Terada
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜Jun Okumura
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
強化学習その1
強化学習その1強化学習その1
強化学習その1nishio
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーDeep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーnlab_utokyo
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量takaya imai
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...西岡 賢一郎
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)Shota Imai
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)Shota Imai
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用Ryo Iwaki
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Yamato OKAMOTO
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
 

What's hot (20)

Sift特徴量について
Sift特徴量についてSift特徴量について
Sift特徴量について
 
tf,tf2完全理解
tf,tf2完全理解tf,tf2完全理解
tf,tf2完全理解
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
 
SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向SSII2019企画: 点群深層学習の研究動向
SSII2019企画: 点群深層学習の研究動向
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までーDeep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
 
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
 
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
強化学習エージェントの内発的動機付けによる探索とその応用(第4回 統計・機械学習若手シンポジウム 招待公演)
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
SSII2022 [SS1] ニューラル3D表現の最新動向〜 ニューラルネットでなんでも表せる?? 〜​
 
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
 
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
 

Viewers also liked

クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
シンギュラリティ以前
シンギュラリティ以前シンギュラリティ以前
シンギュラリティ以前Hiroshi Nakagawa
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別Hiroshi Nakagawa
 
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論Hiroshi Nakagawa
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定Hiroshi Nakagawa
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual TalksYuya Unno
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 
クラシックな機械学習の入門 7. オンライン学習
クラシックな機械学習の入門  7. オンライン学習クラシックな機械学習の入門  7. オンライン学習
クラシックな機械学習の入門 7. オンライン学習Hiroshi Nakagawa
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズムHiroshi Nakagawa
 
シンギュラリティ以後
シンギュラリティ以後シンギュラリティ以後
シンギュラリティ以後Hiroshi Nakagawa
 
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法Hiroshi Nakagawa
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017Hiroshi Nakagawa
 
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-Yoji Kiyota
 
タコス De 機械学習 ~パーセプトロンを実装してみよう~
タコス De 機械学習 ~パーセプトロンを実装してみよう~タコス De 機械学習 ~パーセプトロンを実装してみよう~
タコス De 機械学習 ~パーセプトロンを実装してみよう~Suyama Ikuo
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルShohei Okada
 

Viewers also liked (20)

クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
シンギュラリティ以前
シンギュラリティ以前シンギュラリティ以前
シンギュラリティ以前
 
クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別クラシックな機械学習の入門 3. 線形回帰および識別
クラシックな機械学習の入門 3. 線形回帰および識別
 
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論クラシックな機械学習の入門 2.ベイズ統計に基づく推論
クラシックな機械学習の入門 2.ベイズ統計に基づく推論
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 
クラシックな機械学習の入門 7. オンライン学習
クラシックな機械学習の入門  7. オンライン学習クラシックな機械学習の入門  7. オンライン学習
クラシックな機械学習の入門 7. オンライン学習
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
シンギュラリティ以後
シンギュラリティ以後シンギュラリティ以後
シンギュラリティ以後
 
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
クラシックな機械学習の入門  10. マルコフ連鎖モンテカルロ 法
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
 
K匿名と濡れ衣
K匿名と濡れ衣K匿名と濡れ衣
K匿名と濡れ衣
 
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
住居選択支援を目的としたAI技術適用の試み -ソーシャルメディアへのクラウドソーシング適用および物件画像への深層学習適用-
 
タコス De 機械学習 ~パーセプトロンを実装してみよう~
タコス De 機械学習 ~パーセプトロンを実装してみよう~タコス De 機械学習 ~パーセプトロンを実装してみよう~
タコス De 機械学習 ~パーセプトロンを実装してみよう~
 
知能型システム論(後半)
知能型システム論(後半)知能型システム論(後半)
知能型システム論(後半)
 
KDD2015論文読み会
KDD2015論文読み会KDD2015論文読み会
KDD2015論文読み会
 
強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)強化学習勉強会・論文紹介(第22回)
強化学習勉強会・論文紹介(第22回)
 
PRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデルPRML勉強会@長岡 第4章線形識別モデル
PRML勉強会@長岡 第4章線形識別モデル
 

More from Hiroshi Nakagawa

人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンスHiroshi Nakagawa
 
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例Hiroshi Nakagawa
 
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会Hiroshi Nakagawa
 
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察最近のAI倫理指針からの考察
最近のAI倫理指針からの考察Hiroshi Nakagawa
 
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会Hiroshi Nakagawa
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラHiroshi Nakagawa
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護Hiroshi Nakagawa
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by AnonymizationHiroshi Nakagawa
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演Hiroshi Nakagawa
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料Hiroshi Nakagawa
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」Hiroshi Nakagawa
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-Hiroshi Nakagawa
 

More from Hiroshi Nakagawa (20)

人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス
 
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
 
NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12
 
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会
 
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察最近のAI倫理指針からの考察
最近のAI倫理指針からの考察
 
AI and Accountability
AI and AccountabilityAI and Accountability
AI and Accountability
 
AI Forum-2019_Nakagawa
AI Forum-2019_NakagawaAI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
 
2019 3-9-nakagawa
2019 3-9-nakagawa2019 3-9-nakagawa
2019 3-9-nakagawa
 
CPDP2019 summary-report
CPDP2019 summary-reportCPDP2019 summary-report
CPDP2019 summary-report
 
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
 
Ai e-accountability
Ai e-accountabilityAi e-accountability
Ai e-accountability
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by Anonymization
 
人工知能と社会
人工知能と社会人工知能と社会
人工知能と社会
 
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
 
AI社会論研究会
AI社会論研究会AI社会論研究会
AI社会論研究会
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
 

クラシックな機械学習入門 1 導入