SlideShare a Scribd company logo
1 of 26
ラビットチャレンジレポート
機械学習
2022/1
目次
 線形回帰モデル
 非線形回帰モデル
 ロジスティック回帰モデル
 主成分分析
 サポートベクターマシン
2
線形回帰モデル
3
線形回帰モデル
4
概要
線形回帰モデル: 回帰問題を解くための教師あり機械学習モデルの一種。説明変数(特徴量)の線形結合を出力(目的
変数)とし、各変数の係数を学習パラメータとするモデル。
回帰問題: 連続値や離散値の入力に対し、連続値を出力とした問題。
教師あり学習: 学習データに正解データも含まれた状態で学習する手法。
𝑦 = 𝒘𝑻
𝒙 + 𝑤0 =
𝑗=1
𝑚
𝑤𝑗𝑥𝑗 + 𝑤0
線形回帰モデルの式
𝑤𝑗: 学習パラメータ
𝑥𝑗: 入力変数
𝑦: 予測値
入力変数が1つのみの場合単回帰モデルと呼び、2つ以上の場合重回帰モデルと呼ぶ。
線形回帰モデル
5
パラメータの推定方法
最小二乗法: 実測値と予測値の差(残差) の二乗和が最小となるパラメータで推定する方法。
最尤法: 誤差がある確率分布に従う確率変数と仮定し、その尤度関数を最大にするパラメータで推定する方法。
誤差が独立に正規分布に従うと仮定した場合、最尤法の結果と最小二乗法の結果は一致する。
𝐿𝑜𝑠𝑠(𝒘) =
𝑗=1
𝑚
(𝑦𝑗 − 𝑦𝑗)2
=
𝑗=1
𝑚
(𝑦𝑗 − 𝒘𝑻
𝒙𝑗 − 𝑤0)2
残差平方和の式
𝑦𝑗: 実測値
𝑦𝑗: 予測値
𝐿 𝒘 =
𝑗=1
𝑚
1
2𝜋𝜎
𝑒
−
(𝑦𝑗−𝑦𝑗)2
2𝜎2
=
1
(2𝜋𝜎)
𝑚
2
𝑒
−
𝑗=1
𝑚
(𝑦𝑗−𝒘𝑻𝒙𝑗−𝑤0)2
2𝜎2
尤度関数の式
機械学習の分野では、上式のようなパラメータ推定のために最小化する関数を損失関数や誤差関数と呼ぶ
尤度関数の対数をとると、残差平方和の符号をマイナスにして定数倍したものに定数項を加えたものになる
従って残差平方和を最小化する問題と尤度関数を最大にする問題は等価であることが分かる
𝑙 𝒘 = log𝐿 𝒘 = −
1
2𝜎2
𝑗=1
𝑚
𝑦𝑗 − 𝒘𝑻
𝒙𝑗 − 𝑤0
2
−
𝑚
2
log(2𝜋𝜎)
対数尤度関数の式
線形回帰モデル
6
問題: ボストンの住宅データセットを線形回帰モデルで分析
部屋数が4で犯罪率が0.3の物件はいくらになるか予測する
実装(問題設定)
番号 変数名 内容
1 CRIM 犯罪発生率
2 ZN 25000平方メートル以上の住宅区間の割合
3 INDUS 非小売業土地面積の割合
4 CHAS チャールズ川沿いかどうか
5 NOX 窒素酸化物濃度
6 RM 一戸あたりの平均部屋数
7 AGE 1940年よりに前に建てられた家屋の割合
8 DIS ボストンの主な雇用圏までの重み付き距離
9 RAD 幹線道路へのアクセス指数
10 TAX 10000ドルあたりの所得税率
11 PIRATIO 教師あたりの生徒の数
12 B 1000(Bk-0.63)^2で計算される量
13 LSTAT 低所得者の割合
14 MEDV 住宅価格
ボストンの住宅データセットの概要
目的変数
線形回帰モデル
7
実装(Jupyter notebook)
MEDV = 8.39RM − 0.26CRIM − 29.44
学習したモデルの式
8.39 × 4 − 0.26 × 0.3 − 29.44 = 4.24
部屋数4、犯罪率0.3の物件の予測結果
部屋数4、犯罪率0.3の物件の価格は4,240$の
物件と予測される
非線形回帰モデル
8
非線形回帰モデル
9
概要
非線形回帰モデル: 回帰問題を解くための教師あり機械学習モデルの一種。線形回帰モデルとは異なり、曲線で
予測を行う。説明変数(特徴量)を非線形変換したものの線形結合を出力(目的変数)とし、各変数の係数を学習パ
ラメータとするモデル。
𝑦 = 𝒘𝑻
𝝓(𝒙) + 𝑤0 =
𝑗=1
𝑚
𝑤𝑗𝜙𝑗(𝑥𝑗) + 𝑤0
非線形回帰モデルの式
𝑤𝑗: 学習パラメータ
𝑥𝑗: 入力変数
𝑦: 予測値
𝜙: 非線形関数
非線形関数に用いられる基底関数
・多項式関数
・ガウス型基底関数
・スプライン関数/Bスプライン関数
学習パラメータはあらかじめ非線形変換を施したデータに対し、線形回帰モデルと同様の方法で推定可能である
非線形回帰モデル
10
未学習と過学習
未学習: 学習、テストデータのどちらに対しても誤差が大きい状態。原因としては、モデルのパラメータが少な
く表現力に乏しいことが考えられる。
過学習: 学習データに適合しすぎてテストデータに対する誤差が大きい状態。原因としては、学習データの不足
やモデルのパラメータが多く表現力が高すぎることが考えられる。
適切なモデルは交差検証やハイパーパラメータチューニングなどを通して試行錯誤で決定する必要がある
非線形回帰モデル
11
正則化
正則化: モデルの過学習を抑制するために、損失関数に正則化項(罰則項)を追加する手法。
Lasso回帰: 正則化項として𝐿1ノルムを用いる手法。
Ridge回帰: 正則化項として𝐿2ノルムを用いる手法。
Elastic-Net: 正則化項として𝐿1ノルムと𝐿2ノルムの両方を用いる手法。
𝑅(𝒘) = 𝜆
𝑗=0
𝑚
𝑤𝑗
𝐿1ノルムの式
𝑅(𝒘) = 𝜆
𝑗=0
𝑚
𝑤𝑗
2
𝐿2ノルムの式
𝑅(𝒘) = 𝜆 𝛼
𝑗=0
𝑚
𝑤𝑗 + (1 − 𝛼)
𝑗=0
𝑚
𝑤𝑗
2
Elastic-Netの式
𝜆は正の値で正則化パラメータと呼ばれ罰則の大きさを調整する役割がある
𝛼は𝐿1ノルムと𝐿2ノルムのバランスを調整する役割がある
どちらのパラメータも学習前に事前に決めておく必要があり、ハイパーパラメータと呼ばれる
ロジスティック回帰モデル
12
ロジスティック回帰モデル
13
概要
ロジスティック回帰モデル: 分類問題を解くための教師あり機械学習モデルの一種。クラス1に分類される確率𝑝を
ロジット関数を用いて変換したものを説明変数の線形結合で表す。
分類問題: 連続値や離散値の入力に対し、離散値を出力とした問題。
logit 𝑝 = log
𝑝
1 − 𝑝
ロジット関数の式
𝑤𝑗: 学習パラメータ
𝑥𝑗: 入力変数
𝑝: クラス1になる確率
𝜎(𝑥)のことをシグモイド関数と呼び、学習パラメータ𝑤𝑗は最尤法により推定される
𝑝が0.5以上のときクラス1、0.5未満であればクラス0と予測する(閾値は任意に変更可能)
logit 𝑝 = log
𝑝
1 − 𝑝
= 𝒘𝑻𝒙 + 𝑤0 =
𝑗=1
𝑚
𝑤𝑗𝑥𝑗 + 𝑤0
ロジスティック回帰モデルの式
𝑝 =
1
1 + exp{−𝛼(𝒘𝑻𝒙 + 𝑤0)}
= 𝜎(𝒘𝑻
𝒙 + 𝑤0)
𝑝について解くと
ロジスティック回帰モデル
14
分類問題の評価方法
混同行列: 分類問題の予測結果と実際の結果をマトリックスで表現したもの。
予測
正例 負例
実際の
結果
正例 3 2
負例 1 4
No 実際の結果 予測確率
1 〇 92%
4 〇 83%
7 × 71%
2 〇 55%
10 〇 46%
5 × 39%
3 × 34%
6 〇 22%
8 × 13%
9 × 9%
予
測
確
率
の
高
い
順
に
ソ
ー
ト
評価指標
〇
と
予
測
×
と
予
測
閾値: 50%
〇: 正例
×: 負例
正解率(Accuracy)
全体に占める予測結果の正解数の割合
3 + 4
1 + 2 + 3 + 4
=
7
10
= 70%
再現率(Recall)
実際の結果が〇で予測結果も〇であったものの割合
3
2 + 3
=
3
5
= 60%
適合率(Precision)
予測結果が〇で実際の結果も〇であったものの割合
3
1 + 3
=
3
4
= 75%
混同行列
再現率と適合率の調和平均をとったF値と呼ばれるものもあり、再現率と適合率のバランスを評価する
ロジスティック回帰モデル
15
問題: タイタニックの乗客データをロジスティック回帰モデルで分析
年齢が30歳で男の乗客は生き残れるか予測する
実装(問題設定)
番号 変数名 内容
1 PassengerId 乗客ID
2 Survived 生存・死者情報
3 Pclass 乗客の社会階級
4 Name 乗客名
5 Sex 性別
6 Age 年齢
7 SibSp 兄弟及び配偶者の数
8 Parch 親もしくは子供の数
9 Ticket チケットNo
10 Fare 運賃
11 Cabin 船室
12 Embarked 乗船した漁港
タイタニックデータの概要
目的変数
ロジスティック回帰モデル
16
実装(Jupyter notebook)
𝑝 =
1
1 + exp(−0.0056Age − 2.44Sex + 1.18)
学習したモデルの式
1
1 + exp(−0.0056 × 30 − 2.44 × 1 + 1.18)
= 0.81
年齢30歳、男性の乗客の予測結果
年齢30歳、男性の死亡確率は81%と予測される
予測では死亡クラスに分類される
※ 今回の場合では死亡が0、生存が1のクラスに相当し
死亡(クラス0)の確率を予測するモデルとなっている
主成分分析
17
主成分分析
18
概要
主成分分析: 教師なし学習の一種。多次元データをより少ない次元のデータで表現する次元削減のための手法。
次元削減: 高次元のデータを低次元で表現すること。データ容量の削減や可視化を容易にするために行われる。
教師なし学習: 学習データに正解データが含まれない状態で学習する手法。出力が具体的に決まっていない。
主成分分析の流れ
1. 各変数について平均値を引き、全特徴量の平均値が0のデータ𝑋を求める
2. 標本分散共分散行列
1
𝑛
𝑋𝑇
𝑋を求める
3. 分散共分散行列の固有値、固有ベクトルを求め直行行列で対角化する
4. 平均値を0にしたデータ𝑋を固有ベクトルの線形結合で表現する
5. このときの係数を対応する固有ベクトルの固有値が大きい順に第1主成分、第2主成分・・・と呼ぶ
※ 分散共分散行列は必ず半正定値対象行列であり、直行行列で対角化可能である(応用数学のレポート参照)
また固有値は全て0以上となる
主成分分析
19
問題: 乳がん検査データを主成分分析で分析
32次元のデータを2次元上に圧縮した際に、うまく判別できるか
実装(問題設定)
項目 内容
データセット名 乳がん検査データ
レコード数 569
カラム数 33
乳がん検査データの概要
主成分分析
20
実装(Jupyter notebook)
第1主成分と第2主成分のみでは完全な分類はできていないが、
各クラスの傾向は確認することができる
(良性の方が第1主成分の値が小さいなど)
また第2主成分までの寄与率は63%程度となっている
前処理から寄与率の算出まで 第1主成分と第2主成分のみを用いた可視化
サポートベクターマシン
21
サポートベクターマシン
22
概要
サポートベクターマシン: 分類問題を解くための教師あり機械学習モデルの一種。境界面と最も近いデータとの距離
(マージン)を最大化するパラメータを学習する。分類は判別関数の符号によって行われる。
𝑓 𝒙 = 𝒘𝑻
𝝓 𝒙 + 𝑏
判別関数の式
𝒘, 𝑏: 学習パラメータ
𝑥𝑗: 入力変数
𝜙: 非線形関数
𝑓 𝒙 ≥ 0 → 𝑦 = 1
𝑓 𝒙 < 0 → 𝑦 = −1
分類方法
max
𝒘,𝑏
min
𝑖
𝒘𝑻𝝓 𝒙𝒊 + 𝑏
𝒘
パラメータの推定方法
𝑤𝑇𝜙 𝑥𝑖 +𝑏
𝑤
はデータと超平面𝑓 𝒙 = 0との距離であり、min
𝑖
𝒘𝑻𝝓 𝒙𝒊 +𝑏
𝒘
は最も超平面に近いデータとの距離を表す
これを最大にするパラメータを学習するため上式の最適化問題を解けばよいことになる
サポートベクターマシン
23
問題: タイタニックデータをサポートベクターマシンで分析
年齢が30歳で男の乗客は生き残れるか予測する
ロジスティック回帰の結果と比較する
実装(問題設定)
番号 変数名 内容
1 PassengerId 乗客ID
2 Survived 生存・死者情報
3 Pclass 乗客の社会階級
4 Name 乗客名
5 Sex 性別
6 Age 年齢
7 SibSp 兄弟及び配偶者の数
8 Parch 親もしくは子供の数
9 Ticket チケットNo
10 Fare 運賃
11 Cabin 船室
12 Embarked 乗船した漁港
タイタニックデータの概要
目的変数
サポートベクターマシン
24
実装(Jupyter notebook)
ロジスティック回帰の場合と同様に、年齢30歳の男性
は死亡クラスに分類される
サポートベクターマシン
25
ロジスティック回帰との比較(1/2)
モデルの比較方法
titanic_train.csvのデータをランダムに8:2に分割し、8割を学習データ、残りの2割をテストデータにする
テストデータに対する正解率、再現率、適合率、F値を算出し2つのモデルを比較する
前処理から予測まで
サポートベクターマシン
26
ロジスティック回帰との比較(2/2)
予測精度の算出
ロジスティック回帰 SVM
正解率 0.79 0.63
再現率 0.71 0.09
適合率 0.73 0.67
F値 0.72 0.15
全ての指標についてロジスティック回帰の方が優秀
な結果となった
今回はパラメータの探索などは行っていないため、
チューニング次第で精度の向上が期待できる

More Related Content

What's hot

計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)Shota Yasui
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5sleepy_yoshi
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半Kazunori Miyanishi
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3matsuolab
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布sleipnir002
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)Itaru Otomaru
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデルTakeshi Sakaki
 
Chapter 01 #ml-professional
Chapter 01 #ml-professionalChapter 01 #ml-professional
Chapter 01 #ml-professionalAi Makabi
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6禎晃 山崎
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節Koji Matsuda
 
第4回 配信講義 計算科学技術特論B(2022)
第4回 配信講義 計算科学技術特論B(2022)第4回 配信講義 計算科学技術特論B(2022)
第4回 配信講義 計算科学技術特論B(2022)RCCSRENKEI
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)Akihiro Nitta
 
WBICによる混合正規分布の分離と抽出
WBICによる混合正規分布の分離と抽出WBICによる混合正規分布の分離と抽出
WBICによる混合正規分布の分離と抽出Yusuke TAMAI
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノートKenji Hiranabe
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Takao Yamanaka
 

What's hot (20)

計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)計量経済学と 機械学習の交差点入り口 (公開用)
計量経済学と 機械学習の交差点入り口 (公開用)
 
PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5PRML復々習レーン#3 3.1.3-3.1.5
PRML復々習レーン#3 3.1.3-3.1.5
 
統計的学習の基礎 3章前半
統計的学習の基礎 3章前半統計的学習の基礎 3章前半
統計的学習の基礎 3章前半
 
PRML輪読#3
PRML輪読#3PRML輪読#3
PRML輪読#3
 
パターン認識 04 混合正規分布
パターン認識 04 混合正規分布パターン認識 04 混合正規分布
パターン認識 04 混合正規分布
 
PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講PRML第3章@京大PRML輪講
PRML第3章@京大PRML輪講
 
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
[PRML勉強会資料] パターン認識と機械学習 第3章 線形回帰モデル (章頭-3.1.5)(p.135-145)
 
2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル2014.01.23 prml勉強会4.2確率的生成モデル
2014.01.23 prml勉強会4.2確率的生成モデル
 
Chapter 01 #ml-professional
Chapter 01 #ml-professionalChapter 01 #ml-professional
Chapter 01 #ml-professional
 
PRML 6.4-6.5
PRML 6.4-6.5PRML 6.4-6.5
PRML 6.4-6.5
 
PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6PRML 上 1.2.4 ~ 1.2.6
PRML 上 1.2.4 ~ 1.2.6
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
 
第4回 配信講義 計算科学技術特論B(2022)
第4回 配信講義 計算科学技術特論B(2022)第4回 配信講義 計算科学技術特論B(2022)
第4回 配信講義 計算科学技術特論B(2022)
 
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
PRML 3.3.3-3.4 ベイズ線形回帰とモデル選択 / Baysian Linear Regression and Model Comparison)
 
WBICによる混合正規分布の分離と抽出
WBICによる混合正規分布の分離と抽出WBICによる混合正規分布の分離と抽出
WBICによる混合正規分布の分離と抽出
 
線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート線形代数の視覚的理解のためのノート
線形代数の視覚的理解のためのノート
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
Re revenge chap03-1
Re revenge chap03-1Re revenge chap03-1
Re revenge chap03-1
 
1 2.t検定
1 2.t検定1 2.t検定
1 2.t検定
 
PRML第3章_3.3-3.4
PRML第3章_3.3-3.4PRML第3章_3.3-3.4
PRML第3章_3.3-3.4
 

Similar to ラビットチャレンジレポート 機械学習

Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710Kazuya Nishina
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析Hirotaka Hachiya
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章Masanori Takano
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Yohei Sato
 
[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章Haruki Eguchi
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項tomitomi3 tomitomi3
 
Coursera machine learning week6
Coursera machine learning week6Coursera machine learning week6
Coursera machine learning week6Kikuya Takumi
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章Isao Takaesu
 
130502 discrete choiceseminar_no.3
130502 discrete choiceseminar_no.3130502 discrete choiceseminar_no.3
130502 discrete choiceseminar_no.3隆浩 安
 
ディープボルツマンマシン入門
ディープボルツマンマシン入門ディープボルツマンマシン入門
ディープボルツマンマシン入門Saya Katafuchi
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足ke beck
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and AveragingYu Otsuka
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章Hirofumi Tsuruta
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)Yoshitake Takebayashi
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回Issei Kurahashi
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなしToru Imai
 

Similar to ラビットチャレンジレポート 機械学習 (20)

Model seminar shibata_100710
Model seminar shibata_100710Model seminar shibata_100710
Model seminar shibata_100710
 
データ解析6 重回帰分析
データ解析6 重回帰分析データ解析6 重回帰分析
データ解析6 重回帰分析
 
みどりぼん読書会 第4章
みどりぼん読書会 第4章みどりぼん読書会 第4章
みどりぼん読書会 第4章
 
Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門Tokyo r12 - R言語による回帰分析入門
Tokyo r12 - R言語による回帰分析入門
 
[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章[第2版]Python機械学習プログラミング 第10章
[第2版]Python機械学習プログラミング 第10章
 
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
第7回 KAIM 金沢人工知能勉強会 回帰分析と使う上での注意事項
 
Sakashita
SakashitaSakashita
Sakashita
 
Coursera machine learning week6
Coursera machine learning week6Coursera machine learning week6
Coursera machine learning week6
 
EMNLP 2011 reading
EMNLP 2011 readingEMNLP 2011 reading
EMNLP 2011 reading
 
Tokyo r7 sem_20100724
Tokyo r7 sem_20100724Tokyo r7 sem_20100724
Tokyo r7 sem_20100724
 
ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章ITエンジニアのための機械学習理論入門 第5章
ITエンジニアのための機械学習理論入門 第5章
 
130502 discrete choiceseminar_no.3
130502 discrete choiceseminar_no.3130502 discrete choiceseminar_no.3
130502 discrete choiceseminar_no.3
 
ディープボルツマンマシン入門
ディープボルツマンマシン入門ディープボルツマンマシン入門
ディープボルツマンマシン入門
 
カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足カステラ本勉強会 第三回 補足
カステラ本勉強会 第三回 補足
 
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
[The Elements of Statistical Learning]Chapter8: Model Inferennce and Averaging
 
PRML4.3
PRML4.3PRML4.3
PRML4.3
 
データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章データ解析のための統計モデリング入門4章
データ解析のための統計モデリング入門4章
 
第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)第4回DARM勉強会 (構造方程式モデリング)
第4回DARM勉強会 (構造方程式モデリング)
 
TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回TokyoWebmining統計学部 第1回
TokyoWebmining統計学部 第1回
 
幾何を使った統計のはなし
幾何を使った統計のはなし幾何を使った統計のはなし
幾何を使った統計のはなし
 

Recently uploaded

The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料Tokyo Institute of Technology
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料Takayuki Itoh
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ssusere0a682
 
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラムKochi Eng Camp
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~Kochi Eng Camp
 

Recently uploaded (8)

The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 

ラビットチャレンジレポート 機械学習