SlideShare a Scribd company logo
1 of 40
Download to read offline
ICLR2019における不完全ラベル学習
Ridge‑iinc.
MasanariKimura(mkimura@ridge‑i.com)
1
概要
ICLR2019に採択された不完全ラベル学習のまとめ
ラベルが不完全な状況での学習という研究領域を知ってもらう
2
今回紹介する論文たち
[1]LearningfromPositiveandUnlabeledDatawithaSelectionBias
[2]OntheMinimalSupervisionforTrainingAnyBinaryClassifier
fromOnlyUnlabeledData
[3]Multi‑ClassClassificationwithoutMulti‑ClassLabels
3
不完全ラベル学習
学習に用いられるデータのラベルが欠損しているという問題設定
Weakly‑SupervisedLearningなどとも
今回は特に,Kクラス分類の際に,T(<=K)クラスのデータにラベル
がついていないケースを考える.
e.g,2値分類でPositiveクラスのデータにしかラベルが無い(PU)
4
LearningfromPositiveandUnlabeled
DatawithaSelectionBias
MasahiroKato,TakeshiTeshima,JunyaHonda
5
Abstract
SCARを仮定せずにpositiveデータとunlabeledデータのみから学習
より現実の問題設定に即すようにselectionbiasを考慮
6
PULearning
positveクラスとのデータとラベル無しデータのみから学習
7
SelectedCompletelyAtRandom(SCAR)
(Assumption)Positiveなラベル付きデータはPositiveなラベル無し
データと同様の分布に属する
{x } ∼ p(x∣y = +1)i i=1
n i.i.d.
8
IsSCARAlwaysTrue?
9
IsSCARAlwaysTrue?
現実問題ではラベリングの際のデータの選択に”バイアス”が掛かる
e.g.わかりやすいデータにはラベル付けがされやすい
10
SelectionBiasintheLabelingProcess
ラベリング時のバイアスによって,ラベルのついているpositiveデ
ータとラベルのついていないpositiveデータの分布がずれる
多くの現実の問題設定ではSCARは成り立たない
11
PULearningwithSelectionBias
本論文の目的:PULearningのモデルからSCARの仮定を取り去る
positiveデータ集合{x } とunlabaledデータ集合{x }
{x } ∼ p(x∣y = +1, o = +1),
{x } ∼ p(x),
classpriorπ = p(y = +1)は既知
データ全体のpositiveデータの割合についての事前知識
i i=1
n
i
′
i=1
n′
i i=1
n i.i.d
i
′
i=1
n′ i.i.d
12
IdentificationStrategy
Elkan&Noto(2008)[4]によって,PUlearningに一切の仮定無しに
p(y = +1∣x)を推定することは出来ないことが示されている
一般的にはSCARを仮定
p(x∣y = +1, o = +1) = p(x∣y = +1, o = 0)
p(y = +1∣x) = = =
3番目の等号にSCARを仮定
p(x∣y = +1, o = +1)は実際のサンプルから推定できる
πは過去の事前知識を活用できる
p(x)
p(x,y=+1)
p(x)
p(x∣y=+1)π
p(x)
p(x∣y=+1,o=+1)π
13
InvarianceofOrderAssumption
x , x ∈ χについて,
p(y = +1∣x ) ≤ p(y = +1∣x ) ⇔ p(o = +1∣x ) ≤ p(o = +1∣x )
ラベルはpositivedata(y = +1)のみに付与されることから
i j
i j i j
14
StrategyforPartialIdentificationandClassification
(Theorem)densityratior(x) = について,
p(y = +1∣x ) ≤ p(y = +1∣x ) ⇔ r(x ) ≤ r(x )
が成り立つ.
このr(x)を利用して,BinaryClassifierがつくれる
ある閾値θ を置いたとき,r(x) > θ であればpositive
閾値θ は,事前知識πを利用して計算
π = 1[r(x) ≥ θ ]p(x)dx
p(x)
p(x∣y=+1,o=+1)
i j i j
π π
π
∫ π
15
AlgorithmOverview
1.Input:p(x∣y = +1),p(x),class‑priorπ
2.p(x∣y = +1)とp(x)を使ってdensityratior(x)を計算
3.r(x)を使って閾値θ を計算
4.得られる分類器はh(x) = sign(r(x) − θ )
π
π
16
ExperimentalResults
MNIST,CIFAR‑10,RealDataで実験
17
OntheMinimalSupervisionforTraining
AnyBinaryClassifierfromOnlyUnlabeled
Data
NanLu,GangNiu,AdityaKrishnaMenon,MasashiSugiyama
18
Abstract
出どころの違う2つのラベル無しデータ集合のみから分類器を学習
19
UULearning
データの分布が違う2つのラベルなしデータセットから学習
クラスラベルの代わりに”データの出どころ”にラベリングするイメ
ージ
クラスタリングではなく弱教師あり学習の区分
20
Contribution
任意のBinaryClassifierが単一のラベル無しデータ集合のみから学習
を行うことが不可能であることを証明
分布の違う2つのラベル無しデータ集合からであれば学習を行うこ
とが可能になることを証明
21
IntuitiveUnderstanding
直感的理解
XとX の分布が違うことがわかっている
→分布の違い≒データの含まれる割合の違い
→Xにとっての多数派(赤)とX にとっての少数派(青)が同じ
クラスになるはず
′
′
22
ABriefReviewofEmpiricalRiskMinimization
ERMは以下リスクR(g)を最小化するようにモデルを選択する.
(g) = l(g(x )) + l(−g(x ))
ここでx はpositiveデータ,x はnegtiveデータ
本論文の目的:ERMのxからpositive/negativeの区別を取り去る
R^
n
πp
∑i=1
n
i
+
n′
1−πp
∑j=1
n′
j
−
i
+
j
−
23
RiskRewriteforUU‑Learning
異なるデータの分布p , p に対して,R(g)を以下のように書き換える
R(g) =E [ (g(X))] +E [ (−g(X))]
ここで,
(z) = al(z) + bl(−z)
(z) = cl(z) + dl(−z)
(⋅)は何を意味しているか?
ノイジーなデータセットに対して,損失関数l(⋅)を補正している
labelcorrectionという分野
損失関数に対して適切な係数をかけることでノイジーなデータ
で学習できることを示している
tr tr
′
ptr
l¯+ ptr
′ l¯−
l¯+
l¯−
l¯
24
LabelCorrection
2値分類問題において,入力zのラベルがノイジーであるとする,e.g.,
ラベル0の入力zは1/4の確率で本当はクラス1
ラベル1の入力zは1/5の確率で本当はクラス0
ノイズ発生確率に応じて損失関数に係数をかけると,
(z) = 0.75 × l(z) + 0.8 × l(−z)l¯
25
WhyLabelCorrection?
ラベル無しデータ集合をノイジーなデータ集合に置き換えている.
データセットXはノイジーなPositiveデータセット
データセットX はノイジーなNegativeデータセット′
26
本論文では, および の係数を,
a = ,b = − ,c = ,d = −
とする.これを代入して式変形していくと,
= αl(g(x )) + α l(−g(x )) − T
α = (θ + π − 2θ π )/(θ − θ )
T =
θおよびθ はXおよびX に正例が含まれる確率,π はデータ全体に正
例が含まれる確率.←事前知識を利用
l¯
+
′ l¯−
θ−θ′
(1−θ)πp
θ−θ′
θ(1−π )p
θ−θ′
θ(1−π )p
θ−θ′
(1−θ)πp
R^uu n
1
∑i=1
n
i n
1
∑j=1
n′
′
j
′
′
p
′
p
′
θ−θ′
θ (1−π )+(1−θ)π′
p p
′ ′
p
27
UU‑LearningwithtwoUnlabeldDataSets
目的(再活):ERMのxからpositive/negativeの区別を取り去る
得られた (g)は,
= αl(g(x )) + α l(−g(x )) − T
ERMの式から明示的なラベルを削除する代わりに,データの分布に関す
る事前知識を導入することでUU‑Learningを達成
R^uu
R^uu n
1
∑i=1
n
i n
1
∑j=1
n′
′
j
′
28
Multi‑classclassificationwithoutmulti‑
classlabels
Yen‑ChangHsu,ZhaoyangLv,JoelSchlosser,PhillipOdom,Zsolt
Kira
29
Abstract
明示的なクラスラベルの付与なしに分類器を学習
クラスラベルの代わりにサンプル同士の類似度を活用
30
PairwiseSimilarityLearning
クラスラベルではなくペアが似てるかどうかをラベリング
クラス数が膨大な時に効率的にアノテーション可能
タスクによって再アノテーションが必要ない
クラス数可変のタスクに適用できる
31
NotationofMetaClassificationLearning
解きたいタスクは以下のグラフィカルモデルで表現できる
観測
サンプル集合X = {X , ..., X }
類似度集合S = {S }
隠れ変数
クラスラベル集合Y = {Y , ..., Y }
モデルのパラメータθ
1 n
ij 1≤i,j≤n
1 n
32
MetaClassificationLearning
尤度は,
L(θ; X, Y , S) = P(X, Y , S; θ) = P(S∣Y )P(Y ∣X; θ)P(X)
本論文の目的:損失関数内からラベル集合Y を取り去る
33
ALossFunction
最終的に得たい目的関数は,
L = − s log + (1 − s ) log(1 − )
ここで はx とx の間の類似度の予測値
類似度を近づけるように学習 → ラベル不要
meta ∑i,j ij s^ij ij s^ij
s^ij i j
34
PairwiseSimilarity
類似度にはベクトルの内積を使える.例えば,
= (0.0, 0.2, 0.8, 0.0)
= (0.2, 0.2, 0.3, 0.3)
= (0.1, 0.3, 0.6, 0.0)
のとき,
s = 0.28
s = 0.56
s = 0.26
となり, と が似ているとみなせる.
v1⃗
v2⃗
v3⃗
12
13
23
v1⃗ v3⃗
35
PairwiseSimilarityforMulti‑LabelClassifier
はx とx の類似度.
x とx に対応するベクトルを決めたい.
多クラス分類器f(x )を用意すると都合が良さそう
s^ij i j
i j
∗
36
多クラス分類器f(x )を用意すると都合が良さそう∗
37
(再活)最終的な目的関数
L = − s log + (1 − s ) log(1 − )
= f(x ; θ) f(x ; θ)
明示的なラベルY を一切使わずに,目的関数に多クラス分類器f(⋅; θ)を
導入できた
meta ∑i,j ij s^ij ij s^ij
s^ij i
T
j
38
Conclusion
ラベル不完全な問題設定のICLR2019採択論文を紹介
本来解けない問題設定でも仮定を導入することで可解になる
見えているタスクだけではなく見えない仮定を意識することが重要
暗黙のうちに好ましくない仮定を置いていないか?
ある仮定を置くことで可解なタスクに落ちないか?
39
References
[1]Kato,Masahiro,Teshima,Takeshi,andHonda,Junya.Learning
frompositiveandunlabeleddatawithaselectionbias.
InInternationalConferenceonLearningRepresentations,2019.
[2]Lu,Nan,Niu,Gang,Menon,AdityaK.,andSugiyama,Masashi.
Ontheminimalsupervisionfortraininganybinaryclassifierfrom
onlyunla‑beleddata.InInternationalConferenceon
LearningRepresentations,2019.
[3]Hsu,Yen‑Chang,Lv,Zhaoyang,Schlosser,Joel,Odom,Phillip,
andKira,Zsolt.Multi‑classclas‑sificationwithoutmulti‑class
labels.InInter‑nationalConferenceonLearning
Representations,2019.
[4]CharlesElkanandKeithNoto.Learningclassifiersfromonly
positiveandunlabeleddata.InICDM,pp.213–220,2008.
40

More Related Content

What's hot

【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法Deep Learning JP
 
2 データのベクトル表現と集合
2 データのベクトル表現と集合2 データのベクトル表現と集合
2 データのベクトル表現と集合Seiichi Uchida
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsTakuya Akiba
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性Ichigaku Takigawa
 
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介Chihiro Kusunoki
 
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs Deep Learning JP
 
【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】
【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】
【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】Kento Watanabe
 
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)Deep Learning JP
 
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」西岡 賢一郎
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language ModelsDeep Learning JP
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向ohken
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化Yusuke Uchida
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度Seiichi Uchida
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...Kazuki Adachi
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual FeaturesARISE analytics
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 

What's hot (20)

【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
 
2 データのベクトル表現と集合
2 データのベクトル表現と集合2 データのベクトル表現と集合
2 データのベクトル表現と集合
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
科学と機械学習のあいだ:変量の設計・変換・選択・交互作用・線形性
 
Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介Deep State Space Models for Time Series Forecasting の紹介
Deep State Space Models for Time Series Forecasting の紹介
 
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs 【DL輪読会】Perceiver io  a general architecture for structured inputs &amp; outputs
【DL輪読会】Perceiver io a general architecture for structured inputs &amp; outputs
 
【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】
【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】
【第30回人工知能学会全国大会 発表資料】ストーリー展開と一貫性を同時に考慮した歌詞生成モデル【JSAI30th】
 
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
[DL輪読会]SoftTriple Loss: Deep Metric Learning Without Triplet Sampling (ICCV2019)
 
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
表形式データで高性能な予測モデルを構築する「DNNとXGBoostのアンサンブル学習」
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
【DL輪読会】Hyena Hierarchy: Towards Larger Convolutional Language Models
 
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
 
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
 
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
 
4 データ間の距離と類似度
4 データ間の距離と類似度4 データ間の距離と類似度
4 データ間の距離と類似度
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
論文紹介:Grad-CAM: Visual explanations from deep networks via gradient-based loca...
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
【論文読み会】Deep Clustering for Unsupervised Learning of Visual Features
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 

Similar to [Ridge-i 論文読み会] ICLR2019における不完全ラベル学習

Text Categorization
Text CategorizationText Categorization
Text Categorizationcympfh
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能Hiroshi Nakagawa
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてPlot Hong
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類Shintaro Fukushima
 
実装ディープラーニング
実装ディープラーニング実装ディープラーニング
実装ディープラーニングYurie Oka
 

Similar to [Ridge-i 論文読み会] ICLR2019における不完全ラベル学習 (8)

Text Categorization
Text CategorizationText Categorization
Text Categorization
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向について
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
ggplot2 110129
ggplot2 110129ggplot2 110129
ggplot2 110129
 
不均衡データのクラス分類
不均衡データのクラス分類不均衡データのクラス分類
不均衡データのクラス分類
 
実装ディープラーニング
実装ディープラーニング実装ディープラーニング
実装ディープラーニング
 

More from Masanari Kimura

曲線から多様体まで駆け抜ける微分幾何学入門
曲線から多様体まで駆け抜ける微分幾何学入門曲線から多様体まで駆け抜ける微分幾何学入門
曲線から多様体まで駆け抜ける微分幾何学入門Masanari Kimura
 
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine LearningMasanari Kimura
 
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifierMasanari Kimura
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoderMasanari Kimura
 
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)Masanari Kimura
 

More from Masanari Kimura (6)

曲線から多様体まで駆け抜ける微分幾何学入門
曲線から多様体まで駆け抜ける微分幾何学入門曲線から多様体まで駆け抜ける微分幾何学入門
曲線から多様体まで駆け抜ける微分幾何学入門
 
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
[NeurIPS2019 論文読み会] A Meta Analysis of Overfitting in Machine Learning
 
NeurIPS2019参加報告
NeurIPS2019参加報告NeurIPS2019参加報告
NeurIPS2019参加報告
 
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
[NeurIPS2018論文読み会] Adversarial vulnerability for any classifier
 
[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder[Ridge-i 論文よみかい] Wasserstein auto encoder
[Ridge-i 論文よみかい] Wasserstein auto encoder
 
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
[GTC2018] 敵対生成学習による外観検査のための異常検知手法 (Ridge-i 発表資料)
 

Recently uploaded

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 

Recently uploaded (8)

AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 

[Ridge-i 論文読み会] ICLR2019における不完全ラベル学習