SlideShare a Scribd company logo
1 of 45
Download to read offline
実装ゼミ
井上研 M1 高品 佑也
2017 前期
1
本ゼミの目標
線形回帰や階層的クラスタリングなど初歩的なアルゴリズム
の実装を通じて、ある程度の機械学習アルゴリズムであれば
自力で組めるようにする。
2
進め方
2 週で 1 つのアルゴリズム。
1 週目に理論、 2 週目に実装。
1 週目が終わったら、 2 週目までに宿題として実装。
2 週目はコードレビュー。
3
今後の予定
1‐2週: 線形回帰
3‐4週: 階層的クラスタリング
それ以降: 未定﴾SVM/ニューラルネット/隠れマルコフ﴿
4
最初の 2 つを選んだ理由
アルゴリズムとデータ構造は密接に関係している。
線形回帰は行列、階層的クラスタリングは木構造と結び付け
て、理論から実装への流れを学ぶ。
5
第 1‐2 週
行列と線形回帰
6
行列
要素を縦と横に並べたもの。
プログラム的には 2 次元配列で表せる。
// 単位行列
var eye = new double[,] {{1, 0}, {0, 1}};
世の中にはたくさんの行列計算ライブラリがある。
BLAS: Basic Linear Algebra Subprograms
アルゴリズムを行列計算のレベルに落とし込むことで、
これらの資産を享受できる。
7
線形回帰
目的変数 t を、説明変数 x と重み w 、ガウスノイズ ϵ を用い
て次式のように表すとする。
t = y(x, w) + ϵ
where y(x, w) = w ϕ (x) =w ϕ(x)
j=0
∑
M−1
j j
⊤
8
目的変数 t の確率密度関数は次式で表される。
p(t∣x, w, σ) = N(t∣y(x, w), σ)
線形回帰の係数 w は以下の最尤推定で求まる。
w = arg N(t ∣y(x , w), σ)ML
w
max
i=0
∏
N−1
i i
9
結果として、次式が得られる。
w =Φ t = Φ Φ Φ t
where Φ =ϕ (x )
ML
+
( ⊤
)
−1 ⊤
ij j i
10
結局やること
1. データと基底から計画行列 Φ を求める。
2 次元配列に値を格納していくだけ。
2. 最尤推定で w を求める。
ただの行列計算。
3. 求めたパラメータで回帰。
ただの線形結合。
11
1. データと基底から計画行列 Φ を求める
Φ = ϕ (x )
static double[,] DesignMatrix(
    double[] data, Func<double, double>[] bases)
{
    var (n, m) = (data.Length, bases.Length);
    var matrix = new double[n, m];
    for (var i = 0; i < n; i++)
        for (var j = 0; j < m; j++)
            matrix[i, j] = bases[j](data[i]);
    return matrix;
}
ij j i
12
2. 最尤推定で w を求める
w =Φ t = Φ Φ Φ t
var designMatrix = DesignMatrix(data, bases);
var weights = designMatrix.PseudoInverse().Dot(output);
static double[,] PseudoInverse(this double[,] matrix)
{
    return matrix.Transpose().Dot(matrix).Inverse()
        .Dot(matrix.Transpose());
}
実際には線形方程式のソルバを使ったほうが早い。
ML
+ ( ⊤ )−1 ⊤
13
3. 求めたパラメータで回帰
y(x, w) =w ϕ(x)
var predict = LinearCombination(weights, bases);
var predicted = predict(input);
Console.WriteLine($"input: {input}, predicted: {predicted}");
// e.g. input: 1, predicted: 0.838320107030773
static Func<double, double> LinearCombination(
    double[] weights, Func<double, double>[] bases)
{
    return x => weights.Zip(bases, (w, b) => w * b(x)).Sum();
}
⊤
14
実装例
GitHub に置いておきます﴾C#﴿。
下の RegressionDemo 以下。
https://github.com/y‐takashina/SemiImpl
15
コードレビュー
Don't take it personally.
"あなた自身を非難しているわけではありません"
16
第 3‐4 週
木構造と階層的クラスタリング
17
木構造
閉路を持たないグラフ。
木構造は再帰的な処理と相性が良い。
分割統治法・動的計画法など。
18
階層的クラスタリング
データ点・クラスタを距離が近い順に結合していくことを、
クラスタが 1 つになるまで行う。
距離にはデータ点間の距離とクラスタ間の距離がある。
19
データ点間の距離の例
ユークリッド距離
d(x ,x ) = ∣∣x −x ∣∣
コサイン類似度
d(x ,x ) =
行列﴾無向グラフなど﴿
d(x ,x ) =A
i j i j 2
1
i j
∣∣x ∣∣ ∣∣x ∣∣i j
x xi
⊤
j
i j i,j
20
クラスタ間の距離の例
最短距離法
D(c , c ) = d(x ,x )
群平均法
D(c , c ) = d(x ,x )
ウォード法
D(c , c ) = ∣c ∪ c ∣var[c ∪ c ] − (∣c ∣var[c ] + ∣c ∣var[c ])
i j
x ∈ck i
min
x ∈cl j
min k l
i j
∣c ∣∣c ∣i j
1
x ∈ck i
∑
x ∈cl j
∑ k l
i j i j i j i i j j
21
クラスタ間距離の計算方法
例として最短距離法を考える。
D(c , c ) = d(x ,x )
最も近いペアの距離をクラスタ間の距離とする。
もっとも近い点のペアを見つける探索問題と等価。
i j
x ∈ck i
min
x ∈cl j
min k l
22
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
23
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
24
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
25
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
26
点からクラスタへの距離
1. まず片方を固定し、反対側で最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
27
点からクラスタへの距離
クラスタ c のうち、点 x から最も近い点が求まった。
クラスタ c についても探索する。
j k
i
28
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
29
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
30
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
31
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
32
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
33
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
34
クラスタからクラスタへの距離
2. 固定していた方を動かし、最も近い点を探す。
D(c , c ) = d(x ,x )i j
x ∈ck i
min
x ∈cl j
min k l
35
クラスタからクラスタへの距離
クラスタ c , c の要素のうち、最も近いペアが求まった。
最短距離法では、このペアの距離がクラスタ間の距離。
i j
36
探索の方法
探索を用いて最短距離を計算する方法を示したが、探索方法
自体は指定していなかった。
探索はリニアサーチでもできるが、今回は木構造なので深さ
優先探索を行う。
37
結局やること
0. データ構造を用意する。
1. クラスタ間の距離の計算部分を書く。
点からクラスタへの距離。
クラスタからクラスタへの距離。
2. 最も近いクラスタ同士を結合していく。
38
0. データ構造を用意する
一部コードは省略。
abstract class Cluster
{
    abstract double DistanceTo(Cluster cluster);
}
class Single : Cluster 
{
    public double Value;
}
class Couple: Cluster
{
    public Cluster Left, Right;
}
39
1a. 点からクラスタへの距離
D(c , c ) = d(x ,x )
class Single : Cluster
{
    public override double DistanceTo(Cluster cluster)
    {
        if (cluster is Single single)
            return Math.Abs(Value ‐ single.Value);
        var couple = cluster as Couple;
        var left = DistanceTo(couple.Left);
        var right = DistanceTo(couple.Right);
        return left < right ? left : right;
    }
}
i j
x ∈ck i
min
x ∈cl j
min k l
40
1b. クラスタからクラスタへの距離
D(c , c ) = d(x ,x )
class Couple: Cluster
{
    public override double DistanceTo(Cluster cluster)
    {
        var left = Left.DistanceTo(cluster);
        var right = Right.DistanceTo(cluster);
        return left < right ? left : right;
    }
}
i j
x ∈ck i
min
x ∈cl j
min k l
41
2a. 最も近いクラスタ同士を結合していく
最も近いクラスタを結合していき、 1 つになったら終了。
while (clusters.Count != 1)
{
    var (c1, c2) = NearestPair(clusters);
    clusters.Add(new Couple(c1, c2));
    clusters.Remove(c1);
    clusters.Remove(c2);
}
42
2b. 最も近いクラスタのペアを見つける
public (Cluster, Cluster) NearestPair(List<Cluster> clusters)
{
    var min = double.MaxValue;
    Cluster c1 = null, c2 = null;
    for (var i = 0; i < clusters.Count; i++)
    {
        for (var j = i + 1; j < clusters.Count; j++)
        {
            var d = clusters[i].DistanceTo(clusters[j]);
            if (d < min)
            {
                min = d;
                (c1, c2) = (clusters[i], clusters[j]);
            }
        }
    }
    return (c1, c2);
}
43
実装例
GitHub に置いておきます﴾C#﴿。
下の AhcDemo 以下。
https://github.com/y‐takashina/SemiImpl
44
コードレビュー
45

More Related Content

What's hot

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門Kawamoto_Kazuhiko
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)Masahiro Suzuki
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningYusuke Uchida
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木 Miyoshi Yuya
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習Yusuke Uchida
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svmtetsuro ito
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカットTsubasa Hirakawa
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較YumaMatsuoka
 
[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via T...
[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via  T...[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via  T...
[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via T...Deep Learning JP
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State SpacesDeep Learning JP
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシンShinya Shimizu
 
[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that MattersDeep Learning JP
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)Deep Learning JP
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリングAkira Miyazawa
 

What's hot (20)

グラフィカルモデル入門
グラフィカルモデル入門グラフィカルモデル入門
グラフィカルモデル入門
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)深層生成モデルと世界モデル(2020/11/20版)
深層生成モデルと世界モデル(2020/11/20版)
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
パターン認識 第10章 決定木
パターン認識 第10章 決定木 パターン認識 第10章 決定木
パターン認識 第10章 決定木
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
画像認識と深層学習
画像認識と深層学習画像認識と深層学習
画像認識と深層学習
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
初めてのグラフカット
初めてのグラフカット初めてのグラフカット
初めてのグラフカット
 
Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較Autoencoderの実装と愉快な仲間との比較
Autoencoderの実装と愉快な仲間との比較
 
[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via T...
[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via  T...[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via  T...
[DL輪読会] Adversarial Skill Chaining for Long-Horizon Robot Manipulation via T...
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
lsh
lshlsh
lsh
 
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
 
今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン今さら聞けないカーネル法とサポートベクターマシン
今さら聞けないカーネル法とサポートベクターマシン
 
[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters
 
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs	(gMLP)[DL輪読会]Pay Attention to MLPs	(gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリング
 

Similar to 線形回帰と階層的クラスタリングの実装

東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 ClusteringHiroshi Ono
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqsleipnir002
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)Nguyen Tuan
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1hirokazutanaka
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011Preferred Networks
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」moterech
 
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析hnisiji
 
130323 slide all
130323 slide all130323 slide all
130323 slide allikea0064
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1hirokazutanaka
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1hirokazutanaka
 

Similar to 線形回帰と階層的クラスタリングの実装 (13)

東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
 
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
 
6 Info Theory
6 Info Theory6 Info Theory
6 Info Theory
 
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法大規模凸最適化問題に対する勾配法
大規模凸最適化問題に対する勾配法
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
MLaPP 24章 「マルコフ連鎖モンテカルロ法 (MCMC) による推論」
 
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
Tokyo r#10 Rによるデータサイエンス 第五章:クラスター分析
 
130323 slide all
130323 slide all130323 slide all
130323 slide all
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
 

More from Yuya Takashina

Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Yuya Takashina
 
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...Yuya Takashina
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Yuya Takashina
 
ネットワーク科学の応用について
ネットワーク科学の応用についてネットワーク科学の応用について
ネットワーク科学の応用についてYuya Takashina
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知Yuya Takashina
 
Short introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on HadoopShort introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on HadoopYuya Takashina
 
数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデルYuya Takashina
 

More from Yuya Takashina (7)

Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料Model building in mathematical programming #2-3 輪読資料
Model building in mathematical programming #2-3 輪読資料
 
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
Iterative Decomposition Guided Variable Neighborhood Search for Graphical Mod...
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
 
ネットワーク科学の応用について
ネットワーク科学の応用についてネットワーク科学の応用について
ネットワーク科学の応用について
 
グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知グラフィカル Lasso を用いた異常検知
グラフィカル Lasso を用いた異常検知
 
Short introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on HadoopShort introduction to ML frameworks on Hadoop
Short introduction to ML frameworks on Hadoop
 
数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル数式を(ちょっとしか)使わずに隠れマルコフモデル
数式を(ちょっとしか)使わずに隠れマルコフモデル
 

線形回帰と階層的クラスタリングの実装