SlideShare a Scribd company logo
1 of 68
Download to read offline
L1 正則化による変数の選択と縮小推定法
中村知繁
慶應義塾大学大学院理工学研究科 M1(南研)
May 14, 2014
目次
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
2 / 66
文献
B. Efron, T. Hastie, I. Johnstone, R. Tibshirani (2004). LEAST
ANGLE REGRESSION
H. Zou and T. Hastie (2005). Regularization and variable selection
via the elastic net
H. Zou, T. Hastie, and R. Tibshirani (2006). Sparse principal
component analysis.
R. Tibshirani (1996). Regression Shrinkage and Selection via the
Lasso
T. Hastie, R. Tibshirani, J. Friedman (2009). The Elements of
Statistical Learning 2nd Edition
G. James, D. Witten, T. Hastie R. Tibshirani (2014). An
Introduction to Statistical Learning
3 / 66
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
4 / 66
導入 — 回帰が扱う問題の例
まず、回帰モデルが扱う問題のイメージを共有するために、例を列挙
する。
気温、放射量、風速によってオゾン濃度の変化をモデル化する。
ワインの成分から、ワインの質を予測する
前立腺がんになりやすいリスク因子を特定する
log-priodgram に基づいて、音声を分離する
過去のマーケティングデータから、時期の売り上げを予測する
心臓病のリスクを、人の属性・食事・医学的な尺度から予測する。
5 / 66
導入 — 教師あり学習問題
教師あり学習の問題設定
予測したい変数:目的変数 Y (回帰・判別で異なる)を決める。
Y を説明する変数:説明変数 Xn×p = (X1, ..., Xp) を決める。
教師データ(トレーニングデータ)が (x1, y1), · · · , (xN , yN ) が与
えられる。これらは、変数の観測値。
教師あり学習の目的
教師データを用いて未知の現象をモデル化する。
説明変数が目的変数に与える影響を理解する。
未知のデータ(入力)に対して、結果(出力)を予測する。
6 / 66
導入 — 回帰の例
前立腺がんのデータ
前立腺がんのデータは、Stamey(1989) の調査で得られたもの.
調査対象は、大規模な前立腺駆除を 受けた男性.
調査目的 1:「前立腺の特定の抗体レベルと、医学的な測定値の間
の関係性」を調べること.
調査目的 2:「医学的な測定値から、前立腺の特定抗体のレベルを
予測する」こと
目的変数: log(前立腺の特定の抗体レベル)(lpsa) である。
説明変数:log(がんの大きさ)(lcavol)、log(前立腺の重さ)(lweight)、
年齢、log(良性の 前立腺肥大量)(lbph)、貯精嚢の侵入 (svi)、
lod(カプセルの浸透)(lcp)、グリーソスコア (gleason)、グリーソン
スコアが 4 と 5 であるものの割合 (pgg45)。
学習用データが 67 個の観測データと、30 個のテストデータ.
7 / 66
導入|回帰の例
lcavol lweight age ... gleason pgg45 lpsa train
1 -0.58 2.77 50 ... 6 0 -0.43 TRUE
2 -0.99 3.32 58 ... 6 0 -0.16 TRUE
3 -0.51 2.69 74 ... 7 20 -0.16 TRUE
4 -1.20 3.28 58 ... 6 0 -0.16 TRUE
5 0.75 3.43 62 ... 6 0 0.37 TRUE
6 -1.05 3.23 50 ... 6 0 0.77 TRUE
7 0.74 3.47 64 ... 6 0 0.77 FALSE
8 0.69 3.54 58 ... 6 0 0.85 TRUE
9 -0.78 3.54 47 ... 6 0 1.05 FALSE
10 0.22 3.24 63 ... 6 0 1.05 FALSE
11 0.25 3.60 65 ... 6 0 1.27 TRUE
12 -1.35 3.60 63 ... 6 0 1.27 TRUE
Table: 前立腺がんのデータ(lpsa = 腫瘍の重さ), 最初の8つが説明
変数.
8 / 66
導入|回帰の例
各説明変数の関係性
Figure: 変数ごとの散布図
9 / 66
導入|回帰の例 → 抽象化
目的変数をすべての変数で説明する
Y = lpsa : 目的変数
X = (lcavol, lweight, age, ..., gleason, pgg45) : 説明変数
train = TRUE, FALSE:教師 or テスト
Y を X で説明するモデルは、以下のように考えられる。
Y = f(X) + ε (1)
ε は誤差ベクトル
一般的には平均 0、分散 σ2 の正規分布に従うと仮定する。
10 / 66
導入|本題
高次の場合・説明変数が多い場合
説明変数が多い場合、説明変数と目的変数の関係をできる限り簡
素に記述したくなる。
今回のテーマである「L1 正則化」は、これに関連している手法。
→卒業研究
卒業研究の内容
線形回帰モデルに対する L1 正則化法がテーマ。
L1 正則化法は、縮小推定の過程で、説明変数を選択する。
解釈可能なモデル + 予測精度を改善する
一般的なケースに拡張が可能(主成分分析・ロジスティック回帰
etc...)。
ここからは「卒業論文」のお話をします。
11 / 66
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
12 / 66
導入|線形回帰モデル
線形回帰モデル
線形回帰モデルは、真のモデルに以下のモデルを仮定する。
fL(X) = β0 + β1X1 + · · · + βpXp (2)
線形回帰モデルは、p + 1 個のパラメータ β1, β2, · · · , βp に
よって特徴付けられるモデルである。
教師データに対して、モデルを当てはめることでパラメータ
β1, β2, · · · , βp を推定する
線形回帰モデルは(未知の)真のモデルの理解しやすい近似
としての役割を果たす。
ただし、真のモデルは(ほとんどの場合)与えない。
13 / 66
線形回帰モデル
線形回帰法は目的変数 Yn×1 を、説明変数 Xn×p = (X1, ..., Xp) の線形
結合。
f(X) = β0 +
p
j=i
Xjβj (3)
教師データが与えられたときに、パラメータ β の推定量は、残差二乗和
(RSS)の最小化によって得られる。
残差二乗和は、以下のように表される。
RSS(β) =
N
i=1
(yi − f(xi))
=
N
i=1
⎛
⎝yi − β0 −
p
j=1
xijβj
⎞
⎠
2
= (y − Xβ)T
(y − Xβ)
14 / 66
線形回帰モデル
最小自乗推定量 (OLSE)
推定量 ˆβ は、RSS(β) を β で偏微分したものを 0 とおけば
よい。
ˆβ = (XT
X)−1
XT
y (4)
Y の推定量は、β を用いて
ˆy = X ˆβ = X(XT
X)−1
XT
y = Hy (5)
H は X の張る線形部分空間への射影行列である。
推定量の検定
残差に正規性を仮定する。
回帰係数の推定値が 0 であるかの仮説検定を行うことがで
きる
15 / 66
線形回帰モデル|例:前立腺ガンデータ
説明変数。目的変数は前立腺のある抗体の量の対数をとったもの。
目的変数:前立腺のある抗体の量の対数をとったもの
説明変数:8 つの臨床的な尺度(腫瘍の重さなど)
目的変数を説明変数の線形結合で説明する(真のモデルが線形で
あると仮定)。
最小自乗法を適用(R: glm, lm などで実行可能)
16 / 66
参考|モデルの評価
モデルの評価:平均自乗誤差
1つの評価基準は「平均自乗誤差(MSE)」
教師データ Tr= {xi, yi}N
1 から、推定したモデル ˆf(x) に対して以
下を計算する。
MSET r = Avei∈T r[yi − ˆf(xi)]2
(6)
しかしながら、教師データなので、複雑なモデルの方が平均自乗誤
差は小さくなる
新たなテストデータ Te= {xi, yi}M
1 に対して、以下を計算する。
MSET e = Avei∈T e[yi − ˆf(xi)]2
(7)
17 / 66
線形回帰モデル|例:前立腺ガンデータ
回帰の結果
有意な変数は lcavol, lweight, svi である。
これ以外は t 検定の結果、有意ではない。
MSET e = 0.53
Figure: 回帰した結果
18 / 66
線形回帰モデル|例:前立腺ガンデータ
回帰の結果
Figure: Fitted Value vs Residuals
19 / 66
回帰モデルの重要な視点
すべての変数を取り込んだモデルでは、十分ではない理由.
モデル解釈の側面:
- 変数の数が多い場合、強い影響を持つ変数でモデルを構築したい。
- 細かな部分を切り捨て、外観を捉えたい。
- 変数選択法(Subset Selection)
モデルの予測精度
- すべてのデータを用いた最小自乗推定量は予測精度が悪い
- 縮小推定法(Shrinkage Method)
20 / 66
変数選択法
最良変数選択法
全ての変数の組み合わせのモデルを対象にする
各モデルの基準量を計算しその中で良いモデルを選択する方法。
ただし、計算量の問題がある。p ≈ 40 が限界。
基準には、AIC が使われることが多い。
ステップワイズ法(増加・減少・増減)
null モデルから始めて、ある基準に基づいて変数を1つずつ加える
(増加法)
フルモデルから始めて、ある基準に基づいて変数を1つずつ減ら
す(減少法)
収束するまでアルゴリズムをまわす。
基準には、F 値, AIC が使われることが多い。
21 / 66
変数増加法|例:前立腺ガンデータ
変数増加法の結果
MSET e = 0.49
Figure: 回帰した結果
22 / 66
縮小推定法
縮小推定法(Shrinkage Method)とは?
変数選択法は、変数を捨てることで「解釈しやすい」モデルを提供
する。
縮小推定法は、変数を取捨選択するのではなく、「回帰係数の推定
値」を縮小して推定する。
一般的には「正則化法」といい、モデルがデータへ over-fit するこ
とを防ぎ、推定値を安定化させる。
良く知られているものには「リッジ回帰」がある。(L2 正則化法と
も呼ばれる)
23 / 66
縮小推定法|リッジ回帰
リッジ回帰(Ridge Regression)とは?
Hoerl and Lennnard(1970) で提案された手法。
回帰係数を求める際に XT
X を XT
X を XT
X + λI に置き換える
というアイデア。
ˆβ = (XT
X)−1
XT
y → ˆβridge = (XT
X + λI)−1
XT
y (8)
推定量は、残差二乗和にペナルティー(正則化項)を付けることに
対応する。
ˆβridge = arg min
β
⎧
⎪⎨
⎪⎩
N
i=1
⎛
⎝yi − β0 −
p
j=1
xijβj
⎞
⎠
2
+ λ
p
j=1
β2
j
⎫
⎪⎬
⎪⎭
= arg min
β
(y − Xβ)T
(y − Xβ) + λ||β||2
2 (9)
24 / 66
縮小推定法|リッジ回帰
同等な式として、次のものがある。
ˆβridge = arg min
β
||y − Xβ||2
, subject to
p
j=1
β2
j ≤ t. (10)
ベイズ的な解釈
最小自乗法は、尤度 yi|β ∼ N(β0 + xiβ, σ2
)、β に無情報事前分布
を仮定した場合の、事後分布 β|y の最大化問題に対応する。
リッジ回帰は、尤度 yi|β ∼ N(β0 + xiβ, σ2
)、事前分布
β ∼ N(0, τ2
) としたとき、事後分布 β|y の最大化問題に対応する。
また、λ = σ2
/τ2
である。
25 / 66
縮小推定法|リッジ回帰
リッジ回帰の主成分分析的な解釈
X の特異値分解 X = UDV T
を考える.
U : N × p, V : p × p の直交行列.D : p × p の対角行列.
X ˆβols = X(XT
X)−1
XT
y
= UUT
y
=
p
j=1
ujuT
j y
X ˆβridge = X(XT
X + λI)−1
XT
y
= UD(D2
+ λI)DUT
y
=
p
j=1
uj
d2
j
d2
j + λ
uT
j y
26 / 66
縮小推定法|リッジ回帰
リッジ回帰が回帰係数を縮小して推定していることがわかる。
XT
X = V D2
V T
において、vj は行列 X の第 j 番目の主成分。
リッジ回帰の推定量は、主成分方向に縮小を行い、分散が小さい方
向ほど大きな縮小がかかる。
27 / 66
ここまでのまとめ
一般的に線形回帰法は目的変数 Yn×1 を、説明変数 Xn×p = (X1, ..., Xp)
の線形結合で説明する方法である。このような方法のうち最も基本的な
ものの1つは、最小二乗法 (OLS 法) であり、OLS 法を利用した回帰係
数の推定値 (OLS 推定量) は以下のように表される。
ˆβ(OLS) = (XT
X)−1
XT
y (11)
回帰における重要な 2 つの視点
データの予測精度 - 学習データで構築したモデルが、未知のデー
タが得られたとき、結果をどの程度の精度で予測できるか。
モデルの解釈 - 目的変数と説明変数の関係性をみるために、目的
変数に対して影響の大きい説明変数のみで、モデルを構築できて
いるか。
一般的に、OLS 推定量は両方の面で優れていない。→ 改善策
28 / 66
ここまでのまとめ
一般的に線形回帰法は目的変数 Yn×1 を、説明変数 Xn×p = (X1, ..., Xp)
の線形結合で説明する方法である。このような方法のうち最も基本的な
ものの1つは、最小二乗法 (OLS 法) であり、OLS 法を利用した回帰係
数の推定値 (OLS 推定量) は以下のように表される。
ˆβ(OLS) = (XT
X)−1
XT
y (11)
回帰における重要な 2 つの視点
データの予測精度 - 学習データで構築したモデルが、未知のデー
タが得られたとき、結果をどの程度の精度で予測できるか。
モデルの解釈 - 目的変数と説明変数の関係性をみるために、目的
変数に対して影響の大きい説明変数のみで、モデルを構築できて
いるか。
一般的に、OLS 推定量は両方の面で優れていない。→ 改善策
28 / 66
ここまでのまとめ
予測精度の向上
リッジ回帰:回帰係数の L2 ノルムの 2 乗に制約を加え、残
差二乗和を最小化する
利点:回帰係数を縮小推定することで予測精度が向上する
欠点:説明変数をすべてモデルに取り込む
説明変数の選択
変数増加法・変数減少法・最良変数選択法:AIC などを基準
にして、逐次説明変数を選択しモデルを構築する。
利点:説明変数が少ないモデルを構築することができる。
欠点:連続的な説明変数の選択ができない。
欠点:計算コストが大きい。
29 / 66
ここまでのまとめ
予測精度の向上
リッジ回帰:回帰係数の L2 ノルムの 2 乗に制約を加え、残
差二乗和を最小化する
利点:回帰係数を縮小推定することで予測精度が向上する
欠点:説明変数をすべてモデルに取り込む
説明変数の選択
変数増加法・変数減少法・最良変数選択法:AIC などを基準
にして、逐次説明変数を選択しモデルを構築する。
利点:説明変数が少ないモデルを構築することができる。
欠点:連続的な説明変数の選択ができない。
欠点:計算コストが大きい。
29 / 66
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
30 / 66
Lasso - L1 正則化
Lasso とは
Lasso:Least Absolute Shrinkage and Selection Operator
Tibshirani(1996)
回帰係数の L1 ノルムに制約を課したもとで、残差二乗和を
最小化する。
特徴
回帰係数を縮小推定し、その過程で変数の選択を行う。
回帰法の 2 つの重要な視点を同時に満たすような手法の 1 つ。
31 / 66
Lasso - L1 正則化
定義 (Lasso)
Xn×p は説明変数の行列。説明変数はそれぞれ標準化されている。
yn×1 は目的変数のベクトル。平均が 0 に調整されている。
Lasso の推定量は、λ > 0 のもとで
ˆβ(Lasso) = arg min
β
||y − Xβ||2
+ λ|β|1 , |β|1 =
p
j=1
|βj| (12)
または、
ˆβ(lasso) = arg min
β
||y − Xβ||2
, subject to
p
j=1
|βj| ≤ t. (13)
32 / 66
Lasso - L1 正則化
p=2 の場合の Lasso の性質
簡単のため、説明変数の個数を 2 つとする
説明変数を x1, x2 とし、相関係数を xT
1 x2 = ρ とする。
ここで、ˆβ1(ols) > 0, ˆβ2(ols) > 0 とすると、Lasso の推定量は、(13)
から、以下のように得られる。
ˆβ1 = ˆβ1(ols) −
λ
2(1 + ρ) +
ˆβ2 = ˆβ2(ols) −
λ
2(1 + ρ) +
ただじ、x+ は x > 0 のとき x、x ≤ 0 のとき 0 とする。
Lasso は各回帰係数を同じ大きさだけ減らして推定する。
減らした結果 0 以下になった推定量を 0 にする。
λ の値によって、縮小推定をしながら、変数選択をする性質を持つ。
33 / 66
Lasso - L1 正則化
p=2 の場合の Lasso の性質
上のスライドの結果と ˆβ1 + ˆβ2 = t を用いると、ρ を式から消去す
ることができて、Lasso の推定量は
ˆβ1(lasso) =
t
2
+
ˆβ1(ols) − ˆβ2(ols)
2
+
ˆβ2(lasso) =
t
2
−
ˆβ1(ols) − ˆβ2(ols)
2
+
Lasso の推定量は説明変数間の相関の影響を受けない
34 / 66
Lasso - L1 正則化
Ridge 回帰の場合
p = 2 の場合の、リッジ回帰の推定量は
ˆβ1 =
1
(1 + λ)2 − ρ2
(1 + λ − ρ2
)ˆβ1(ols) + λρˆβ2(ols)
ˆβ2 =
1
(1 + λ)2 − ρ2
λρˆβ1(ols) + (1 + λ − ρ2
)ˆβ2(ols)
Ridge 回帰の推定量は変数間の相関に影響される.
35 / 66
Lasso - ベイズ的な解釈
Lasso のベイズ的な解釈
Lasso の推定量は、βj の事前分布にラプラス分布を仮定。
f(βj) =
1
2τ
exp −
|βj|
τ
Figure: 2 重指数分布と正規分布のプロット (0.26,1.74 で交わる)
36 / 66
Lasso - Least Angle Regression
Lasso を解くためのアルゴリズム:LARS 法
Lasso を数値に解くことためには、計算コストが大きく
O(2p)(指数時間)である (Tibshirani 1996)
Lasso が扱う問題は p が大きい事例が多いので、指数的に計
算量が大きくなる方法では対応できない。
LARS(Efron 2004) のアルゴリズムは計算コスト O(p3 + np2)
(多項式時間)で解くことができる。
LARS : Least Angle Regression
詳しくは卒論に書いてありますが、今回は紹介に留めます。
37 / 66
Lasso |例:前立腺がんのデータ
Figure: 左図:Lasso の解のパス図:横軸は |β|1/ max |β|1 の大きさ (制約
の大きさ)、縦軸は回帰係数の推定量
38 / 66
Lasso の課題
Lasso の問題点
p ≫ n 問題 (West et al. 2001):p ≫ n の状況において、説明
変数が p 個あった場合でも、Lasso が選択できる説明変数の個
数は n 個である(分散共分散行列のランクが n になるため)。
グループ化効果がない:Lasso は変数間の相関を考慮できな
い。高い相関を持ついくつかの変数があるとき、それらをグ
ループ化された変数とよび、Lasso は、その中から 1 つしか
モデルに取り込むことはできない。
n > p での問題:説明変数間の相関が高い場合には、グルー
プ化変数を無視する性質によってリッジ回帰よりも予測精度
が悪くなることがある。
39 / 66
Lasso の課題
Lasso が課題になる具体的な例
白血病の人の遺伝子データ, Golub et al. Science(1999)。
データのサンプル数 72 個, 説明変数の数 7129 個.(p ≫ n
問題)
遺伝子データでは、一般的に p ≈ 10000 で、サンプル数
n < 100 である。
遺伝子データでは、一般的に遺伝子同士の結合 (”Pathway”)
が似通っていることから、説明変数同士の相関が高いことが
多く、グループ化された変数が存在する。
→ 解決策の1つとして、(Na¨ıve) Elastic Net がある。
40 / 66
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
41 / 66
Elastic Net
定義 (Na¨ıve Elastic Net : Na¨ıve ENet)
λ1 > 0, λ2 > 0 として、
ˆβ(Naive ENet) = arg min
β
||y − Xβ||2
+ λ2||β||2
+ λ1|β|1
または、0 ≤ α ≤ 1 として、これと同値な式
ˆβ(Naive ENet) = arg min
β
||y −Xβ||2
, s.t. (1−α)|β|1 +α||β||2
≤ t (14)
を Na¨ıve ENet の推定量と定義する。
Na¨ıve ENet の特徴
λ1 → 0 とするとリッジ回帰.λ2 → 0 とすると Lasso になる.
推定量の計算は、次のスライドのように定義の式を変形すること
で Lasso と同様に LARS で解くことができる。
42 / 66
Elastic Net
Na¨ıve ENet の解法
まず、以下のように X∗
と、y∗
を定義する。
X∗
(n+p)×p = (1 + λ2)−1/2 X√
λ2Ip
y∗
(n+p) =
y
0
(15)
ここで、γ = λ1/ (1 + λ2), β∗
= (1 + λ2)β とすると、次が成り立つ
ため Lasso 同様に LARS 法で解くことができる。
ˆβ(Naive ENet) = arg min
β
||y∗
− X∗
β∗
||2
+ γ|β∗
|1
以上より、
ˆβ(Naive ENet) =
1
√
1 + λ2
ˆβ∗
(15) から、X のランクが p になり、p ≫ n 問題を解消できること
が示される。
43 / 66
Elastic Net 続き : グループ化効果
一般的に罰則付きの最小 2 乗推定量は、J(β) を罰則項として次のように表される。
ˆβ = arg min
β
|y − Xβ|2
+ λJ(β) (16)
ここで、β = (β1, · · · , βi, · · · , βj, · · · , βp)、β
′
= (β1, · · · , βj, · · · , βi, · · · , βp) とし
て、J(β) = J(β
′
) が成立することを仮定する。すると、次の補題が示せる。
補題
xi = xj (i, j ∈ 1, 2, · · · , p) であると仮定する。
(a) J(·) が狭義凸関数であるならば、 ˆβi = ˆβj が全ての λ > 0 に対して成り立つ。
(b) J(β) = |β|1 であるならば、ˆβi
ˆβj ≥ 0 かつ、 ˆβ∗ は方程式 (7) の異なる最小の値であ
り、全ての s ∈ [0, 1] に対して、以下が成立する。
ˆβ∗
k =
⎧
⎨
⎩
ˆβk if k ̸= i and k ̸= j,
(ˆβi + ˆβj) · (s) if k = i
(ˆβi + ˆβj) · (1 − s) if k = j
→ Lasso の罰則はグループ化効果を持たないことが示せる。一方の Elastic Net の罰則は
グループ化効果を持つことが示唆される。
44 / 66
Elastic Net 続き : グループ化効果
定理
データセット (y, X) とパラメータ (λ1, λ2) が与えられたとき、
ˆβ(λ1, λ2) を Na¨ıve elastic net の推定量とする。ここで、
ˆβi(λ1, λ2)ˆβj(λ1, λ2) > 0 と仮定し、以下で Dλ1,λ2 (i, j) を定義
する。
Dλ1,λ2 (i, j) =
1
|y|1
|ˆβi(λ1, λ2) − ˆβj(λ1, λ2)|
このとき、ρ = xT
i xj(xi と xj の相関係数) とすると、以下が成り
立つ。
Dλ1,λ2 (i, j) ≤
1
λ2
2(1 − ρ)
相関係数によって係数の差の絶対値は押さえ込まれる。ρ = 1
とすると、2 つの回帰係数の推定量が一致することがわかる。
→ Na¨ıve ENet はグループ化効果を持つ。
45 / 66
Elastic Net 続き
Na¨ıve ENet の課題と Elastic Net の定義
課題:経験的に、Na¨ıve ENet は良いパフォーマンス示さない
ことが知られている。
原因:リッジ回帰と Lasso のによって、回帰係数の推定値が
2 重に縮小されているため。
対処:リッジ回帰の回帰係数の縮小分である 1/(1 + λ2) をリ
スケーリングで解消。
以下を、Elastic Net の推定値とする。
ˆβ (ENet) = (1 + λ2) ˆβ (Na¨ıve ENet) (17)
→ 具体的な解析結果へ
46 / 66
補足|リッジ回帰の作用素
リッジ回帰の作用素の性質
リッジ回帰の作用素 R.
R = (XT
X + λ2I)−1
XT
ここで、XT X が相関行列なので、R は次式
R =
1
1 + λ2
R∗
=
1
1 + λ2
⎛
⎜
⎜
⎝
1 ρ12
1+λ2
· · ·
ρ1p
1+λ2
1 · · · · · ·
1
ρp−1,p
1+λ2
1
⎞
⎟
⎟
⎠
−1
XT
(18)
λ を大きくすれば、単回帰に近づくことがわかる。
47 / 66
Elastic Net : 例:前立腺がんのデータ
Figure: Erastic Net | λ = 1 として、elastic net を実行した結果
48 / 66
Elastic Net : 例:前立腺がんのデータ
Figure: Erastic Net | λ = 100 として、elastic net を実行した結果
49 / 66
Elastic Net : 例:前立腺がんのデータ
Figure: Erastic Net | λ = 0.01 として、elastic net を実行した結果
50 / 66
相関行列に関係する
lcavol lweight age lbph svi lcp gleason pgg45
lpsa 0.73 0.49 0.23 0.26 0.56 0.49 0.34 0.45
lcavol lweight age lbph svi lcp gleason pgg45
lcavol 1.00 0.30 0.29 0.06 0.59 0.69 0.43 0.48
lweight 0.30 1.00 0.32 0.44 0.18 0.16 0.02 0.07
age 0.29 0.32 1.00 0.29 0.13 0.17 0.37 0.28
lbph 0.06 0.44 0.29 1.00 -0.14 -0.09 0.03 -0.03
svi 0.59 0.18 0.13 -0.14 1.00 0.67 0.31 0.48
lcp 0.69 0.16 0.17 -0.09 0.67 1.00 0.48 0.66
gleason 0.43 0.02 0.37 0.03 0.31 0.48 1.00 0.76
pgg45 0.48 0.07 0.28 -0.03 0.48 0.66 0.76 1.00
51 / 66
具体的な解析:前立腺がんのデータより
8 つの臨床的尺度を説明変数。目的変数は前立腺のある抗体
の量の対数をとったもの。
Table: 前立腺がんのデータ:各方法別の比較
Method Parameter Test Prediction Error Variables Selectied
OLS 0.522 すべて
リッジ回帰 λ = 1 0.517 すべて
Lasso s = 0.35 0.471 (1,2,4,5,8)
Na¨ıve elastic net λ = 1, s = 0.74 0.450 (1,2,4,5,6,7,8)
Elastic net λ = 1000, s = 0.18 0.349 (1,2,5,6,8)
λ はリッジの罰則の重みを表し、s は LASSO の罰則の重みを
表している。また、λ > 0、0 < s < 1 である。
このケースにおいては、Elastic Net は他のどの方法よりも優
れた結果を残している。
52 / 66
推定値のパス図
Figure: 左図:Lasso の解のパス図.右図:Elastic Net の解のパス図
53 / 66
音声認識への応用
音声認識とは
音素認識 (音声認識) は、ヒトの話す音声言語をコンピューターによって解析し、話
している内容を文字データとして取り出す方法。
具体的には、大量の発話を記録した学習用データから音声の特徴を蓄積し、入力さ
れた音声信号と、蓄積された特徴を比較して、最も特徴の近い文字を認識結果とし
て出力する
モチベーション
音素判別における課題:波形が類似している 2 つの音を分離する場合、分離精度が
悪くなる。
今回は機械で見分ける上で難しいとされる”aa”と”ao”という 2 つの音を、回帰法
によって分離する。その際、用いた手法の 精度を比較と、 特徴の抽出ができてい
るかを確認する。
用いる手法は、最小自乗法、リッジ回帰、変数増加法、LASSO、Elastic Net。
54 / 66
音声データの解析
データと解析手法
50 名の男性の連続的な発話から、”aa”の音声データと、”ao”の音
声データを抽出した、それぞれのサンプル数は 695 個と 1022 個で
ある。
説明変数は各周波数毎で、256 個ある。目的変数は以下のように
した。
Y =
1 (音声データが”aa”であるとき)
0 (音声データが”ao”であるとき)
各手法の分離精度は、”aa”と”ao”のデータをランダムに 4 分割し、
3 つを学習用データ、1 つをテスト用データとするクロスバリデー
ション法を用いて、平均正答率で測る。
また、特徴の抽出においては、全データを用いてモデルを構築する
際に取り込まれる説明変数を、そのモデルが取り込む選択する特
徴とした。
55 / 66
音声データの解析結果
解析結果:予測精度
解析結果を見ると、説明変数を選択する手法を用いた方が、
分離能力は向上することがわかる。
説明変数を選択する手法の中でも、変数増加法よりも
LASSO 及び、(Na¨ıve)ENet の方がより予測精度ではより良い
パフォーマンスを示している。
Table: 音素解析:方法別の結果比較
手法 パラメータ 正答率 選択された変数の数
最小二乗法 0.698 すべて
変数増加法 0.768 47
リッジ回帰 λ = 2.0 0.704 すべて
Lasso s = 0.09 0.794 32
Na¨ıve elastic net λ = 1, s = 0.31 0.797 43
Elastic net λ = 1000, s = 0.30 0.808 42
56 / 66
音声データの特徴の抽出
特徴の抽出とは
特徴集合(説明変数)のうち、”意味のある”部分集合だけを選択する手法。今回のケース
では、音声のどの部分が分離する際のポイントとなる箇所をきちんとモデルに組み込めて
いるかをみている。
Figure: ”aa”と”ao”の音素の Log-Periodgram を 100 個ずつプロット
している。ここでは、40-70 の周波数の領域が音声データの特徴として
みることができる。
57 / 66
音声データの解析結果
解析結果:音声データの特徴の抽出
変数増加法は、音声の特徴をうまく抽出できていない。
LASSO, (Na¨ıve) ENet は音声の特徴を抽出しているが、
LASSO はグループ化効果を持たないため、特徴に取りこぼ
しがある。
ENet, Na¨ıve ENet は特徴をを取りこぼしなくモデルに取り込
んでいる。
Table: 音素解析:用いた 4 つの変数選択法で選択された変数
手法 選択された変数
変数増加法 2 4 8 9 12 13 21 22 30 32 38 40 41 42 48 55 56 58 60 63 67 71 77 80 122 124 153
154 159 161 176 180 182 185 187 197 200 201 204 218 224 226 227 231 242 251 256
Lasso 4 23 37 40 42 43 44 45 47 48 49 53 59 62 63 64 65 93 103 132
141 152 167 184 211 222 223 231 234 235 238 241
Na¨ıve elastic net 9 19 23 26 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56
57 58 59 60 61 62 63 64 65 66 69 85 92 100 109 224 227 228 231 247
Elastic net 4 23 37 38 39 40 41 42 43 44 45 46 47 48 49 52 53 54 55 56 57 58 59 60 61 62 63 64
65 79 221 223 231 232 234 236 246 251 253 254 255 256
58 / 66
ここまでのまとめ
データ解析で説明変数が多いケースでは、予測精度の向上と、解釈
可能なモデルの構築がしばしば重要になる。
Lasso は、説明変数の選択を行い、説明変数が少ないモデルを構築
する。
Lasso は、欠点としてグループ化された変数を取り込むことができ
ず、予測精度が下がることがある。
Lasso は、性質上、p ≫ n 問題には対応できない。
Elastic Net は、上記の負の側面を解消することで、予測精度を向上
させる一方、変数を選択し解釈可能なモデルを与える。
Elastic Net は特徴を抽出の点からも、優れた結果を残すことが音
素解析の事例から理解できた。遺伝子解析分野への応用が期待で
きる。
59 / 66
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
60 / 66
まとめ
今回は、回帰の基本的なお話から、L1 正則化法までをお話し
しました。
L1 正則化が本格的に使われ始めたのは、LARS(Efron et., al
2004) のアルゴリズムがつくられた以降で、未だ発展段階。
L1 正則化は、「変数の選択」と「予測精度の向上」の両方を
同時に達成する手法で解釈可能なモデルを与えるという点が
優れている。
一方で、課題も存在しており計算量の多さと、「チューニング
パラメータ」の選択法については未だ定まった方法はない。
今後、上記のような課題は抱えつつも、優れた側面を持つ L1
正則化は現場で遺伝子の発現解析や、マーケティングデータ
の予測への応用が期待されている。
また L1 正則化には、様々な応用手法が提案されており、興味
のある方は Regression Shrinkage and selection via the lasso:
a retrospective(Tibshirani 2011) に概要が記されている。
61 / 66
導入 - 回帰モデルとは何か?
線形回帰モデル, 変数選択法, 縮小推定法
Lasso - L1 型正則化による、縮小推定と変数選択
Elastic Net - Lasso に変わる新たな手法
まとめ
今後の研究について
62 / 66
終わりに
今日は、卒業論文で研究した L1 正則化について詳しくお話しをし
ました.
少々早口で、聞き取りにくかった箇所があるかと思いますが、ご容
赦ください。
今後の研究や活動など
現在の研究は、遺伝子発現のデータからどのようにして「ノイズ」
と「意味のあるシグナル」を分離するのかという研究をしていま
す。用いているのは、GLM や LMM などです。
次回は遺伝子発現関連の、お話をさせていただく予定です
最近は、現場に入って医療データの解析(年間医療費予測・検診
データによる患者のクラスタリングなど...)をやってます。
63 / 66
参考文献
B. Efron, T. Hastie, I. Johnstone, R. Tibshirani (2004).
LEAST ANGLE REGRESSION
H. Zou and T. Hastie (2005). Regularization and variable
selection via the elastic net
H. Zou, T. Hastie, and R. Tibshirani (2006). Sparse principal
component analysis.
R. Tibshirani (1996). Regression Shrinkage and Selection via
the Lasso
T. Hastie, R. Tibshirani, J. Friedman (2009). The Elements
of Statistical Learning 2nd Edition
G. James, D. Witten, T. Hastie R. Tibshirani (2014). An
Introduction to Statistical Learning
64 / 66
ご清聴ありがとうございました
65 / 66
補足 - パス図の見方
66 / 66

More Related Content

What's hot

パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
sleipnir002
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
Preferred Networks
 

What's hot (20)

20140514_水曜セミナー発表資料_中村知繁
20140514_水曜セミナー発表資料_中村知繁20140514_水曜セミナー発表資料_中村知繁
20140514_水曜セミナー発表資料_中村知繁
 
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
東京都市大学 データ解析入門 8 クラスタリングと分類分析 1
 
東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1東京都市大学 データ解析入門 2 行列分解 1
東京都市大学 データ解析入門 2 行列分解 1
 
PRML chapter7
PRML chapter7PRML chapter7
PRML chapter7
 
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
東京都市大学 データ解析入門 4 スパース性と圧縮センシング1
 
8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論8.4 グラフィカルモデルによる推論
8.4 グラフィカルモデルによる推論
 
回帰
回帰回帰
回帰
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
Sparse models
Sparse modelsSparse models
Sparse models
 
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
 
Prml 2.3
Prml 2.3Prml 2.3
Prml 2.3
 
Linera lgebra
Linera lgebraLinera lgebra
Linera lgebra
 
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
121218 zansa13 for web
121218 zansa13 for web121218 zansa13 for web
121218 zansa13 for web
 
Prml sec6
Prml sec6Prml sec6
Prml sec6
 
PRML セミナー
PRML セミナーPRML セミナー
PRML セミナー
 
カステラ本勉強会 第三回
カステラ本勉強会 第三回カステラ本勉強会 第三回
カステラ本勉強会 第三回
 
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
東京都市大学 データ解析入門 5 スパース性と圧縮センシング 2
 
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
 
ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習ラビットチャレンジレポート 機械学習
ラビットチャレンジレポート 機械学習
 

Similar to 2014年5月14日_水曜セミナー発表内容_FINAL

生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
Issei Kurahashi
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
t2tarumi
 
2次元/3次元幾何学変換の統一的な最適計算論文
2次元/3次元幾何学変換の統一的な最適計算論文2次元/3次元幾何学変換の統一的な最適計算論文
2次元/3次元幾何学変換の統一的な最適計算論文
doboncho
 

Similar to 2014年5月14日_水曜セミナー発表内容_FINAL (20)

Stochastic Variational Inference
Stochastic Variational InferenceStochastic Variational Inference
Stochastic Variational Inference
 
Exponential distribution (指数分布)
Exponential distribution (指数分布)Exponential distribution (指数分布)
Exponential distribution (指数分布)
 
Deep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___informationDeep learning _linear_algebra___probablity___information
Deep learning _linear_algebra___probablity___information
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333生物統計特論3資料 2006 ギブス MCMC isseing333
生物統計特論3資料 2006 ギブス MCMC isseing333
 
Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)Rのoptim関数でロバスト回帰(LMSとLAV)
Rのoptim関数でロバスト回帰(LMSとLAV)
 
2013 03 25
2013 03 252013 03 25
2013 03 25
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説Learning Latent Space Energy Based Prior Modelの解説
Learning Latent Space Energy Based Prior Modelの解説
 
Oracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslassoOracle property and_hdm_pkg_rigorouslasso
Oracle property and_hdm_pkg_rigorouslasso
 
050 確率と確率分布
050 確率と確率分布050 確率と確率分布
050 確率と確率分布
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第5回 微分方程式とは,変数分離形 (2014. 10. 23)
 
2次元/3次元幾何学変換の統一的な最適計算論文
2次元/3次元幾何学変換の統一的な最適計算論文2次元/3次元幾何学変換の統一的な最適計算論文
2次元/3次元幾何学変換の統一的な最適計算論文
 
分布 isseing333
分布 isseing333分布 isseing333
分布 isseing333
 
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
Estimating Mutual Information for Discrete‐Continuous Mixtures 離散・連続混合の相互情報量の推定
 
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
 
双対性
双対性双対性
双対性
 
0712-2
0712-20712-2
0712-2
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定相互情報量を用いた独立性の検定
相互情報量を用いた独立性の検定
 

More from Tomoshige Nakamura

20140507_品川女子学院_講義2
20140507_品川女子学院_講義220140507_品川女子学院_講義2
20140507_品川女子学院_講義2
Tomoshige Nakamura
 
品川女子_講義1_共感_定義
品川女子_講義1_共感_定義品川女子_講義1_共感_定義
品川女子_講義1_共感_定義
Tomoshige Nakamura
 
品川女子学院_講義1_デザイン思考_共感
品川女子学院_講義1_デザイン思考_共感品川女子学院_講義1_デザイン思考_共感
品川女子学院_講義1_デザイン思考_共感
Tomoshige Nakamura
 
ライフサイクルからの脱却
ライフサイクルからの脱却ライフサイクルからの脱却
ライフサイクルからの脱却
Tomoshige Nakamura
 
20130125 日本を創り継ぐプロジェクト
20130125 日本を創り継ぐプロジェクト20130125 日本を創り継ぐプロジェクト
20130125 日本を創り継ぐプロジェクト
Tomoshige Nakamura
 

More from Tomoshige Nakamura (20)

ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎ベイズ推論とシミュレーション法の基礎
ベイズ推論とシミュレーション法の基礎
 
多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料多重代入法(Multiple Imputation)の発表資料
多重代入法(Multiple Imputation)の発表資料
 
20141224_水曜セミナー
20141224_水曜セミナー20141224_水曜セミナー
20141224_水曜セミナー
 
20140727_第1回スポーツデータアナリティクス基礎講座
20140727_第1回スポーツデータアナリティクス基礎講座 20140727_第1回スポーツデータアナリティクス基礎講座
20140727_第1回スポーツデータアナリティクス基礎講座
 
20140625_品川女子学院_講義3
20140625_品川女子学院_講義320140625_品川女子学院_講義3
20140625_品川女子学院_講義3
 
【書きかけ】一般化線形モデルの流れ
【書きかけ】一般化線形モデルの流れ【書きかけ】一般化線形モデルの流れ
【書きかけ】一般化線形モデルの流れ
 
20140507_品川女子学院_講義2
20140507_品川女子学院_講義220140507_品川女子学院_講義2
20140507_品川女子学院_講義2
 
20140507_品川女子学院_講義2
20140507_品川女子学院_講義220140507_品川女子学院_講義2
20140507_品川女子学院_講義2
 
自己紹介_140416
自己紹介_140416自己紹介_140416
自己紹介_140416
 
品川女子_講義1_共感_定義
品川女子_講義1_共感_定義品川女子_講義1_共感_定義
品川女子_講義1_共感_定義
 
品川女子学院_講義1_デザイン思考_共感
品川女子学院_講義1_デザイン思考_共感品川女子学院_講義1_デザイン思考_共感
品川女子学院_講義1_デザイン思考_共感
 
日本を創り継ぐプロジェクト紹介資料
日本を創り継ぐプロジェクト紹介資料日本を創り継ぐプロジェクト紹介資料
日本を創り継ぐプロジェクト紹介資料
 
【第3回日本を創り継ぐプロジェクト】説明資料
【第3回日本を創り継ぐプロジェクト】説明資料【第3回日本を創り継ぐプロジェクト】説明資料
【第3回日本を創り継ぐプロジェクト】説明資料
 
Design Thinking Workshop
Design Thinking WorkshopDesign Thinking Workshop
Design Thinking Workshop
 
Design Thinking Workshop
Design Thinking WorkshopDesign Thinking Workshop
Design Thinking Workshop
 
ライフサイクルからの脱却
ライフサイクルからの脱却ライフサイクルからの脱却
ライフサイクルからの脱却
 
Workshop nara
Workshop naraWorkshop nara
Workshop nara
 
Workshop nara
Workshop naraWorkshop nara
Workshop nara
 
20130125 日本を創り継ぐプロジェクト
20130125 日本を創り継ぐプロジェクト20130125 日本を創り継ぐプロジェクト
20130125 日本を創り継ぐプロジェクト
 
d.thinking workshopsheet
d.thinking workshopsheetd.thinking workshopsheet
d.thinking workshopsheet
 

Recently uploaded

TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
YukiTerazawa
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
koheioishi1
 

Recently uploaded (8)

世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
世界を変えるクレーンを生み出そう! 高知エンジニアリングキャンプ2024プログラム
 
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
生成AIの回答内容の修正を課題としたレポートについて:お茶の水女子大学「授業・研究における生成系AIの活用事例」での講演資料
 
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習106 -価格の交渉ゲーム-#ゲーム理論 #gametheory #数学
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
次世代機の製品コンセプトを描く ~未来の機械を創造してみよう~
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
2024年度 東京工業大学 工学院 機械系 大学院 修士課程 入試 説明会 資料
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 

2014年5月14日_水曜セミナー発表内容_FINAL