Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
sakura-mike
PPTX, PDF
2,361 views
線形分類器で非線形分離+文章生成
JOI2016夏季セミナー オンライン機械学習 (機械学習プロフェッショナルシリーズ) 線形分類器の説明と非線形分離のやり方 @O_mikemike
Technology
◦
Read more
1
Save
Share
Embed
Embed presentation
Download
Download to read offline
1
/ 26
2
/ 26
3
/ 26
4
/ 26
5
/ 26
6
/ 26
7
/ 26
8
/ 26
9
/ 26
10
/ 26
11
/ 26
12
/ 26
13
/ 26
14
/ 26
15
/ 26
16
/ 26
17
/ 26
18
/ 26
19
/ 26
20
/ 26
21
/ 26
22
/ 26
23
/ 26
24
/ 26
25
/ 26
26
/ 26
More Related Content
PDF
DL勉強会 01ディープボルツマンマシン
by
marujirou
PDF
アルゴリズム+データ構造勉強会(2)
by
noldor
PDF
アルゴリズム+データ構造勉強会(7)
by
noldor
PDF
アルゴリズム+データ構造勉強会(3)
by
noldor
PPTX
並列化による高速化
by
sakura-mike
PDF
ロジスティック回帰の考え方・使い方 - TokyoR #33
by
horihorio
PDF
2013.02.11 TGF+FGFシンポジウム 押川講演
by
Masaki Oshikawa
PDF
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
by
Hokuto Kagaya
DL勉強会 01ディープボルツマンマシン
by
marujirou
アルゴリズム+データ構造勉強会(2)
by
noldor
アルゴリズム+データ構造勉強会(7)
by
noldor
アルゴリズム+データ構造勉強会(3)
by
noldor
並列化による高速化
by
sakura-mike
ロジスティック回帰の考え方・使い方 - TokyoR #33
by
horihorio
2013.02.11 TGF+FGFシンポジウム 押川講演
by
Masaki Oshikawa
2014/5/29 東大相澤山崎研勉強会:パターン認識とニューラルネットワーク,Deep Learningまで
by
Hokuto Kagaya
Viewers also liked
PDF
20140705.西野研セミナー
by
Hayaru SHOUNO
PDF
深層学習と活性化関数
by
spade630
PDF
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
PDF
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
PDF
ニューラルネットワークの数理
by
Task Ohmori
ODP
現場で役に立たないsudoの使い方
by
(^-^) togakushi
20140705.西野研セミナー
by
Hayaru SHOUNO
深層学習と活性化関数
by
spade630
パターン認識と機械学習6章(カーネル法)
by
Yukara Ikemiya
SVM実践ガイド (A Practical Guide to Support Vector Classification)
by
sleepy_yoshi
ニューラルネットワークの数理
by
Task Ohmori
現場で役に立たないsudoの使い方
by
(^-^) togakushi
Similar to 線形分類器で非線形分離+文章生成
PDF
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
PDF
コンピュータ先端ガイド2巻3章勉強会(SVM)
by
Masaya Kaneko
PDF
PRML 4.1 Discriminant Function
by
Shintaro Takemura
PDF
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
by
Preferred Networks
PPTX
識別モデルと生成モデルと損失データ
by
Shohei Miyashita
PPTX
SVMについて
by
mknh1122
PDF
PRML 4.1 輪講スライド
by
KawaAkimune
PDF
線形識別モデル
by
貴之 八木
PDF
人工知能10 サポートベクトルマシン
by
Hirotaka Hachiya
PDF
サポートベクトルマシン入門
by
Wakamatz
PDF
[DSO] Machine Learning Seminar Vol.2 Chapter 3
by
Teruyuki Sakaue
PDF
Jubatusにおける大規模分散オンライン機械学習
by
Preferred Networks
PDF
PRML 第4章
by
Akira Miyazawa
PDF
Introduction to document classification 2014
by
Hiroyuki TOKUNAGA
PDF
Active Learning 入門
by
Shuyo Nakatani
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
コンピュータ先端ガイド2巻3章勉強会(SVM)
by
Masaya Kaneko
PRML 4.1 Discriminant Function
by
Shintaro Takemura
オンライン凸最適化と線形識別モデル学習の最前線_IBIS2011
by
Preferred Networks
識別モデルと生成モデルと損失データ
by
Shohei Miyashita
SVMについて
by
mknh1122
PRML 4.1 輪講スライド
by
KawaAkimune
線形識別モデル
by
貴之 八木
人工知能10 サポートベクトルマシン
by
Hirotaka Hachiya
サポートベクトルマシン入門
by
Wakamatz
[DSO] Machine Learning Seminar Vol.2 Chapter 3
by
Teruyuki Sakaue
Jubatusにおける大規模分散オンライン機械学習
by
Preferred Networks
PRML 第4章
by
Akira Miyazawa
Introduction to document classification 2014
by
Hiroyuki TOKUNAGA
Active Learning 入門
by
Shuyo Nakatani
線形分類器で非線形分離+文章生成
1.
線形分類器で非線形分離 +文章生成してみた 押川令
2.
線形分類器(概要) f(x)=w・x+b (w:重みベクトル、b:バイアス項)で表される分離 超平面のどちら側にあるのかで判断 このパラメーターwを最適化する 今回はオンライン学習なので、 このパラメーターを与えられたデータ 一つごとにパラメーターを微妙に更新していく
3.
線形分類器(概要) 目的関数L(w)= 𝑡 𝑙(𝑥
𝑡 , 𝑦 𝑡 , 𝑤) →誤差的なもの この値を最小化すればいい ○勾配降下法 全てのデータについて、 L(w) をwの各要素で 偏微分して勾配を求め 下りの方向にwを動かす →すべてのデータに関して誤差が減っ ていく ○確率勾配降下法 一つのデータに対してそれのみ の勾配を求める →そのデータに対して誤差が減るL w が凸関数なら 最後には一番最小となる点にたどり着く
4.
線形分類器(概要) (単純)パーセプトロン 目的関数: 𝑡
max(−𝑦𝑤・𝑥(𝑡) , 0) 分離に失敗したら分離超平面までの距離を返す 偏微分すると勾配は−𝑦・𝑥 →下がっているほうに更新するので +y・xで更新 ここを減らしていく
5.
線形分類器(概要) ハードマージンSVM(サポートベクトルマシン) データの境界のできるだけ中央に境界を引きたい 全て超平面で分類可能であるとして 分離超平面と最も距離の近いデータ点の距離 |𝑤∙𝑥+𝑏| ||𝑤|| が最大に なるようにする →wはいくらでも大きくなるのでサポートベクトルについて|𝑤 ∙ 𝑥
+ 𝑏|=1としてよい つまりすべてのデータにおいて 𝑤 ∙ 𝑥 + 𝑏 ≥1の時、 ||𝑤||を最小化したい
6.
線形分類器(概要) ハードマージンSVM(サポートベクトルマシン) データの境界のできるだけ中央に境界を引きたい 全て超平面で分類可能であるとして 分離超平面と最も距離の近いデータ点の距離 |𝑤∙𝑥+𝑏| ||𝑤|| が最 大になるようにする ここを 1 ||𝑤|| と置いて、それを最大化する
7.
線形分類器(概要) ソフトマージンSVM(サポートベクトルマシン) 目的関数: 𝑡
max 1 − 𝑦𝑤・𝑥 𝑡 , 0 + 𝐶||𝑤||2 →分離不可能なデータについては制約を満たさない 制約の代わりにペナルティ≥ 1 − 𝑦𝑤・𝑥 𝑡 を組み込む 𝐶||𝑤||2は極端なデータが与えられたとき パラメータが無限に発散してしまうのを防ぐ 同様に偏微分して勾配は 1 − 𝑦𝑤 ∙ 𝑥 ≥ 0 の時−𝑦・𝑥 + 2𝐶𝑤
8.
線形分類器(概要) ロジスティック回帰 目的関数: -
𝑡 𝑙𝑜𝑔 1 1+exp(−𝑦 𝑡 𝑤∙𝑥 𝑡) + 𝐶||𝑤||2 標準シグモイド関数 1 1+exp(𝑥) は(0,1)の範囲で動く →xに対しyと出力される確率を表している これをできるだけ大きくしたい ←みんな100%近く正しい 方に分類されるとよい 確率が半々
9.
線形分類器(概要) ロジスティック回帰 目的関数: -
𝑡 𝑙𝑜𝑔 1 1+exp(−𝑦 𝑡 𝑤∙𝑥 𝑡) + 𝐶||𝑤||2 標準シグモイド関数 1 1+exp(𝑥) は(0,1)の範囲で動く →xに対しyと出力される確率を表している これをできるだけ大きくしたい 対数をとって求めやすくしている 微分不可能な点がないので、偏微分して勾配は常に (1- 1 1+exp −𝑦 𝑡 𝑤∙𝑥 𝑡 ) −𝑦𝑥 + 2𝐶𝑤
10.
:完全に線形分離できる問題 ある平面で分離できる 例: C++で実装してみた パーセプトロン SVM
ロジスティック回帰 99.98 98.82 95.68 ※精度はあまり気にせず、収束判定ではなく 読み込む回数を同じにして行っています →学習できてることがわかる(当たり前)
11.
,そうでもない問題 円データ n次関数っぽい パーセプトロン
SVM ロジスティック回帰 49.44 50.48 49.36 パーセプトロン SVM ロジスティック回帰 57.22 56.7 52.22
12.
,そうでもない問題 円データ n次関数っぽい パーセプトロン
SVM ロジスティック回帰 49.44 50.48 49.36 パーセプトロン SVM ロジスティック回帰 57.22 56.7 52.22 ほぼ乱択
13.
円データ n次関数っぽい
14.
線形分離できない分類問題 高次元の特徴空間に変換してみる 元の特徴空間におけるベクトルを,別の次元特徴空間に 変換する適切な関数を考える (例えばX^2,y^2,xyなどを特徴とする→多項式写像 他にもいろいろな非線形関数を使って写像する) 線形分離できるようになる
15.
線形分離できない分類問題 高次元の特徴空間に変換する (𝑥2 , 𝑦2 ,
𝑥𝑦)
16.
実装 パーセプトロン SVM ロジスティック回帰 49.44
50.48 49.36 99.00 98.10 94.36
17.
実装 パーセプトロン SVM ロジスティック回帰 57.22
56.7 52.22 81.20 82.56 93.72
18.
問題点 変換した特徴空間は無限に高次元になりやすくデータに 対するメモリの消費量が増えてしまう 例えば二次式で写像するとn(n+1)/2 →オンライン学習でなければカーネルトリックを使って、特 徴空間自体を参照しなくても、そこでの内積を求められる どんな非線形関数を使うかは自分で決めなければならな い(探索もできる) 非線形関数 ほかにも排他的論理和とかtanhとか
19.
非線形分離問題が解けるもの 例:ニューラルネットワーク 線形変換をした後に非線形関数を適用することによって 非線形分離を可能にしている(活性化関数)
20.
文章生成してみた (多クラス分類)
21.
多クラス分類 二値分類を組み合わせたりすることで可能 例: 一対一 全てのクラスの組み合わせについてどちらかを二値分類 し投票数が最も多かったクラス K*(K-1)/2個の2値分類器が必要 一対他 それぞれのクラスについてそのクラスかどうかの二値分類 器を作り、スコアが最も大きいものを分類結果とする K個の2値分類器が必要
22.
いろいろ分類してみた 例:iris(アヤメの種類の分類) 4次元の情報をもとに3種類に分割する →精度:93.4% 例:Handwritten Digits(手書き文字認識) 白黒の手書き文字を10種類(0~9)に分割する →精度:92% ※一対他 割と線形分離できる
23.
文章?生成 せっかくなのでなんか活用したものを作ってみただけ (突貫工事) Mecabで単語ごとに分けてから近くの単語同士につい て、その二つの特徴の関係を調べる。
特徴は品詞・活用など クラス分類はほぼ品詞 主語をランダムに選びそこから次の単語がどんなものに なるかを多クラス分類で求めてつなげていく
24.
文章?生成 適当な文章(単語数10000くらい)を教師として実行 前の単語とのセットだけだと無限に同じものが出た ので何個か前まで評価する ×個人情報の保護について、 ○個人情報の保護について、 学習による出力結果を同じ品詞が続かないように調整
25.
文章?生成 実行結果例(まあまあましなの) 匿名について建物が寒い 人間からさまざまに挟む 品詞の続き方とかだけ文っぽい
あんまりきれいにはならなかったです… 意味も評価したいところです。(がんばります)
26.
ありがとうございました
Download