Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
EN
Uploaded by
Peinan ZHANG
PDF, PPTX
2,125 views
単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
第222回自然言語処理研究会 (SIG-NL) で発表したスライドです。
Technology
◦
Related topics:
Deep Learning
•
Read more
3
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 29
2
/ 29
3
/ 29
4
/ 29
5
/ 29
6
/ 29
7
/ 29
8
/ 29
9
/ 29
10
/ 29
11
/ 29
12
/ 29
13
/ 29
14
/ 29
15
/ 29
16
/ 29
17
/ 29
18
/ 29
19
/ 29
20
/ 29
21
/ 29
22
/ 29
23
/ 29
24
/ 29
25
/ 29
26
/ 29
27
/ 29
28
/ 29
29
/ 29
More Related Content
PPTX
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
by
Ohsawa Goodfellow
PPTX
Image net classification with deep convolutional neural network
by
ga sin
PDF
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
by
禎晃 山崎
PPTX
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
by
Tatsuya Yokota
PDF
Deep Learning技術の今
by
Seiya Tokui
PPTX
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
by
Deep Learning JP
PPTX
EMNLP 2015 読み会 @ 小町研 "Morphological Analysis for Unsegmented Languages using ...
by
Yuki Tomo
PDF
[DL輪読会]Convolutional Sequence to Sequence Learning
by
Deep Learning JP
Natural Language Processing (Almost) from Scratch(第 6 回 Deep Learning 勉強会資料; 榊)
by
Ohsawa Goodfellow
Image net classification with deep convolutional neural network
by
ga sin
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
by
禎晃 山崎
低ランク性および平滑性を用いたテンソル補完 (Tensor Completion based on Low-rank and Smooth Structu...
by
Tatsuya Yokota
Deep Learning技術の今
by
Seiya Tokui
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
by
Deep Learning JP
EMNLP 2015 読み会 @ 小町研 "Morphological Analysis for Unsegmented Languages using ...
by
Yuki Tomo
[DL輪読会]Convolutional Sequence to Sequence Learning
by
Deep Learning JP
What's hot
PDF
BERT+XLNet+RoBERTa
by
禎晃 山崎
PDF
SSA-SOINN
by
SOINN Inc.
PPTX
Distributed Representations of Sentences and Documents
by
sakaizawa
PDF
Priorに基づく画像/テンソルの復元
by
Tatsuya Yokota
ODP
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
by
Yukiyoshi Sasao
PPTX
Minimally Supervised Classification to Semantic Categories using Automaticall...
by
sakaizawa
PDF
E-SOINN
by
SOINN Inc.
PDF
Relation Classification via Convolutional Deep Neural Network (Zeng et al.)
by
marujirou
PDF
Recurrent Neural Networks
by
Seiya Tokui
PDF
[DL輪読会]Discriminative Learning for Monaural Speech Separation Using Deep Embe...
by
Deep Learning JP
PDF
Building High-level Features Using Large Scale Unsupervised Learning
by
Takuya Minagawa
PDF
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
PDF
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
by
Shotaro Sano
PDF
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
by
Masahiro Suzuki
PDF
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
by
Masahiro Suzuki
PPTX
Paper: seq2seq 20190320
by
Yusuke Fujimoto
PPTX
2014.01.23 prml勉強会4.2確率的生成モデル
by
Takeshi Sakaki
PDF
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
by
Hitomi Yanaka
PDF
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
PPTX
PRML Chapter 5
by
Masahito Ohue
BERT+XLNet+RoBERTa
by
禎晃 山崎
SSA-SOINN
by
SOINN Inc.
Distributed Representations of Sentences and Documents
by
sakaizawa
Priorに基づく画像/テンソルの復元
by
Tatsuya Yokota
Introduction to "Facial Landmark Detection by Deep Multi-task Learning"
by
Yukiyoshi Sasao
Minimally Supervised Classification to Semantic Categories using Automaticall...
by
sakaizawa
E-SOINN
by
SOINN Inc.
Relation Classification via Convolutional Deep Neural Network (Zeng et al.)
by
marujirou
Recurrent Neural Networks
by
Seiya Tokui
[DL輪読会]Discriminative Learning for Monaural Speech Separation Using Deep Embe...
by
Deep Learning JP
Building High-level Features Using Large Scale Unsupervised Learning
by
Takuya Minagawa
論文紹介 Pixel Recurrent Neural Networks
by
Seiya Tokui
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
by
Shotaro Sano
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
by
Masahiro Suzuki
(DL hacks輪読) Variational Dropout and the Local Reparameterization Trick
by
Masahiro Suzuki
Paper: seq2seq 20190320
by
Yusuke Fujimoto
2014.01.23 prml勉強会4.2確率的生成モデル
by
Takeshi Sakaki
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
by
Hitomi Yanaka
教師なしオブジェクトマッチング(第2回ステアラボ人工知能セミナー)
by
STAIR Lab, Chiba Institute of Technology
PRML Chapter 5
by
Masahito Ohue
Viewers also liked
PDF
AutoEncoderで特徴抽出
by
Kai Sasaki
ZIP
今さら聞けないカーネル法とサポートベクターマシン
by
Shinya Shimizu
PDF
Deep learning実装の基礎と実践
by
Seiya Tokui
PDF
Chainerチュートリアル -v1.5向け- ViEW2015
by
Ryosuke Okuta
PDF
言語と画像の表現学習
by
Yuki Noguchi
PPTX
Denoising auto encoders(d a)
by
Tae Young Lee
PDF
EMNLP 2014: Opinion Mining with Deep Recurrent Neural Network
by
Peinan ZHANG
PDF
研究会20140618:進捗と闇Pythonistaのワンライナーテクニックを少々
by
Peinan ZHANG
PDF
20140801ACL2014読み会
by
Peinan ZHANG
PDF
COLING 2014: Joint Opinion Relation Detection Using One-Class Deep Neural Net...
by
Peinan ZHANG
PDF
研究会20140702:進捗報告
by
Peinan ZHANG
PDF
A yet another brief introduction to neural networks
by
Yuta Kikuchi
PPTX
Data preprocessing
by
dineshbabuspr
PDF
2014 Global Traveler Study
by
Cognizant
PDF
Digital Marketing Approach - Master - Andrea Genovese
by
Andrea Genovese
DOCX
Caso.atrapalo.com.janet carrillo.dif.y.posicionamiento
by
Janny Carrillo
PPTX
Guide 5 ingles
by
tatis3456
PPTX
Instructional power point on unit 2 second steps
by
wtheteacher
DOCX
Mapa conceptual Erika Rivera Wendy Cervantes
by
erika_rivera_chona
PPSX
Colours oldgames
by
tbarczak
AutoEncoderで特徴抽出
by
Kai Sasaki
今さら聞けないカーネル法とサポートベクターマシン
by
Shinya Shimizu
Deep learning実装の基礎と実践
by
Seiya Tokui
Chainerチュートリアル -v1.5向け- ViEW2015
by
Ryosuke Okuta
言語と画像の表現学習
by
Yuki Noguchi
Denoising auto encoders(d a)
by
Tae Young Lee
EMNLP 2014: Opinion Mining with Deep Recurrent Neural Network
by
Peinan ZHANG
研究会20140618:進捗と闇Pythonistaのワンライナーテクニックを少々
by
Peinan ZHANG
20140801ACL2014読み会
by
Peinan ZHANG
COLING 2014: Joint Opinion Relation Detection Using One-Class Deep Neural Net...
by
Peinan ZHANG
研究会20140702:進捗報告
by
Peinan ZHANG
A yet another brief introduction to neural networks
by
Yuta Kikuchi
Data preprocessing
by
dineshbabuspr
2014 Global Traveler Study
by
Cognizant
Digital Marketing Approach - Master - Andrea Genovese
by
Andrea Genovese
Caso.atrapalo.com.janet carrillo.dif.y.posicionamiento
by
Janny Carrillo
Guide 5 ingles
by
tatis3456
Instructional power point on unit 2 second steps
by
wtheteacher
Mapa conceptual Erika Rivera Wendy Cervantes
by
erika_rivera_chona
Colours oldgames
by
tbarczak
Similar to 単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
PDF
言語表現モデルBERTで文章生成してみた
by
Takuya Koumura
PPTX
【論文紹介】Distributed Representations of Sentences and Documents
by
Tomofumi Yoshida
PDF
読解支援@2015 07-13
by
sekizawayuuki
PDF
Word2vec alpha
by
KCS Keio Computer Society
PPTX
fastTextの実装を見てみた
by
Yoshihiko Shiraki
PPTX
Machine Learning Seminar (5)
by
Tomoya Nakayama
PDF
A scalable probablistic classifier for language modeling: ACL 2011 読み会
by
正志 坪坂
PPTX
Variational Template Machine for Data-to-Text Generation
by
harmonylab
PDF
Deep nlp 4.2-4.3_0309
by
cfiken
PPTX
Mahoutにパッチを送ってみた
by
issaymk2
PDF
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
by
Kenta Oono
PDF
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
by
Shohei Okada
PDF
Deep Learning Chapter12
by
Kei Uchiumi
PPTX
Probabilistic fasttext for multi sense word embeddings
by
Makoto Takenaka
PDF
読解支援@2015 07-03
by
sekizawayuuki
PDF
Deep Learningと自然言語処理
by
Preferred Networks
言語表現モデルBERTで文章生成してみた
by
Takuya Koumura
【論文紹介】Distributed Representations of Sentences and Documents
by
Tomofumi Yoshida
読解支援@2015 07-13
by
sekizawayuuki
Word2vec alpha
by
KCS Keio Computer Society
fastTextの実装を見てみた
by
Yoshihiko Shiraki
Machine Learning Seminar (5)
by
Tomoya Nakayama
A scalable probablistic classifier for language modeling: ACL 2011 読み会
by
正志 坪坂
Variational Template Machine for Data-to-Text Generation
by
harmonylab
Deep nlp 4.2-4.3_0309
by
cfiken
Mahoutにパッチを送ってみた
by
issaymk2
Learning Image Embeddings using Convolutional Neural Networks for Improved Mu...
by
Kenta Oono
文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automati...
by
Shohei Okada
Deep Learning Chapter12
by
Kei Uchiumi
Probabilistic fasttext for multi sense word embeddings
by
Makoto Takenaka
読解支援@2015 07-03
by
sekizawayuuki
Deep Learningと自然言語処理
by
Preferred Networks
単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類
1.
単語分散表現を用いた 多層 Denoising Auto-Encoder による評価極性分類 首都大学東京
システムデザイン研究科 張 培楠,小町 守 2015/07/15
2.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 研究背景 近年,増加し続けている莫大なウェブデータからのマイニ ングなど,評価極性分類タスクは重要な役割を担っている 2 この映画面白 いよ! この商品めっ ちゃ使いづらい
3.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 従来手法の課題(1/2) ヒューリスティックに分類ルールを作成したり極性 辞書を使用した分類手法 n 極性辞書を作る必要がある n 日々増加する新語や未知語に対応できない n 人的なコストが大きい n データスパースネス問題 n 表層の素性だけでは不十分 3 n フジモリズムはペルー全土に根付いている。 例
4.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 従来手法の課題(2/2) 素性を設計して機械学習させる 分類手法 n 多くの素性を設計する必要が ある n 専門的な知識が必要となり, 一般化が難しい n 見出す素性の種類に限界があ る n 中川らの手法では13種類もの 素性テンプレートを設計した 4
5.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 どう克服するか ヒューリスティックに分類ルールを作成したり極性辞書 を使用した分類手法 ➾ 単語の分散表現を使用する n 単語の意味を表現できる密ベクトル n データスパースネスに頑健 素性を設計して機械学習させる分類手法 ➾ 深層ニューラルネットワーク(多層 Denoising Auto- Encoder)で学習する n 複雑なモデルや素性設計を必要としない n 高い汎化能力を持つ 5
6.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 本研究の貢献 p 評価極性分類タスクにおいて,大規模コーパスから 学習した単語分散表現を用いることと,多層の Denoising Auto-Encoder(Stacked Denoising Auto-Encoder: SdA)を用いることが分類性能に大 きく寄与することを示した. p 日本語の評価極性分類タスクに対し,複雑なモデル を設計することなく,現時点における世界最高精度 を達成した. 6
7.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 単語分散表現を用いた多層 Denoising Auto-Encoder による評価極性分類 日本語の文が与えられた時に,その極性をポジティブ・ ネガティブの2値に分類するタスクを考える. 表現学習により得られた単語の分散表現を用いて 文ベクトルを作成し,その文ベクトルを多層 Denoising Auto-Encoder の入力として学習させる. 7 入力文 ・ ・ ・ 単語ベクトル 文ベクトル SdA 極性
8.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 分散表現 p 1-of-K 表現 n Bag-of-Words を作る時に用いる伝統的な単語ベクトルの 表現方法 n 単語ベクトルの次元は語彙数と同じ n 各次元がひとつの単語に対応する n 表層的に異なる単語同士は全く別の記号として扱う 8 ペット / として / 飼う / なら / 犬 / と / 猫 / ,/ どっち / が / いい / か / な / . 語彙数: 14! ペット: [1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]! 犬: [0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0]! 猫: [0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0]!
9.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 分散表現 p 単語の分散表現 n 単語ベクトルの次元はハイパーパラメータ n 各次元がひとつの単語に対応しない n 表層的に異なる単語でも,出現する文脈が似ていれば同じよう なベクトルになる n 分散表現を学習するタスクは表現学習という 9 語彙数: 14! 次元数: 6! ペット: [0.1, 0.3, 0.5, 0.1, 0.9, 0.6]! 犬: [0.0, 0.2, 0.4, 0.1, 0.8, 0.7]! 猫: [0.0, 0.2, 0.5, 0.0, 0.8, 0.7]! ペット / として / 飼う / なら / 犬 / と / 猫 / ,/ どっち / が / いい / か / な / .
10.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 ターゲットとしている k 番目の単語 wk のベクトル 出現する語彙の数:|V| 単語ベクトルの次元:d 1-of-K ベクトル:b 単語ベクトルの集合の行列:L 単語の分散表現 10 ・ ・ ・ ・ ・ ・ ・ ・
11.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 文の分散表現 コーパスにある |M| 個の文を用いて,文行列 S を作成 する 11 ・ ・ ・ ………… avg avg avg avg i 番目の文ベクトル Si は下式のように average で算出される(右図) 計算された文ベクトルを用いて作成 される文行列 S は以下のようになる
12.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 Auto-Encoder ニューラルネットワークを使用して入力と同じになる ような出力の中間層での表現を学習する教師なし学習 n ニューラルネットワークにおいて,層が深くなっていくと 学習に時間がかかったり過学習しやすくなる n 特徴抽出しやすい初期値を持たせる事前学習に使用する 12 encode decode input hidden output d 次元の入力 x と出力 z の差を表す損失関数:
13.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 Denoising Auto-Encoder 入力に対してランダムなノイズを与えることにより高い 汎化能力を決定する. p 与えられた比率で 1 と 0 の要素を持つ二項分布の乱数を生成 p これと入力行列の要素積を求める p ノイズの乗った入力から元の入力を復元することで汎化能力 が高い学習が可能となる 似たような正則化の働きをする手法として DropOut が ある p 中間ノードを一定の確率で無視して学習を行う p 過学習を防ぐ 13
14.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 Stacked Denoising Auto-Encoder 14 input layer hidden layer hidden layer hidden layer output layer label 1! 0! pre-training pre-training pre-training LogReg fine-tuningfine-tuningfine-tuning dA1 W1 dA2 W2 dA3 W3 fine-tuning W4
15.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 Stacked Denoising Auto-Encoder dA を積み重ねることで,表現能力を向上させたもので,抽出さ れる特徴は深い層になるに連れて抽象的な表現を獲得できる. SdA による学習は 2 つの段階からなっている p 事前学習(pre-training):ニューラルネットワーク各層を dA と して行う教師なし学習 n 入力ベクトルが各層で特徴抽出がなされる n 抽出された内部表現は次の層の入力として渡される n これを最後の中間層まで繰り返す p 微調整(fine-tuning):ニューラルネットワーク全体で行う教師 あり学習 n 最後の中間層まで事前学習すると,その内部表現を用いてロジスティ クス回帰により分類される n 分類結果のベクトルが出力層に渡される n 出力ベクトルと正解ラベルで誤差逆伝搬により各層で重みを更新して いく 15
16.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 実験:使用データ n NTCIR-6 意見分析パイロットタ スクテストコレクション n 文単位に極性 n ニュートラル極性を取り除いた n 3人のアノテータによりタグ付け n 3人のアノテーション結果の和集 合を使用し,異なる極性が付与 されている場合は常に特定のア ノテータのタグを使用 n 10分割交差検定 16 合計 2,599 ポジティブ 769 ネガティブ 1,830
17.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 実験:使用ツール 単語分散表現 n word2vec n Skip-gram n window size: 5 n 200 次元 n Wikipedia(2014.11)で 約 43 万語彙 17 Python で実装 n version: 2.7.6 MeCab n version: 0.996 n IPADic version: 2.7.0 Theano n version: 0.60 scikit-learn n version: 0.1.0
18.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 実験:比較(手法) 比較手法 手法概要 Tree-規則 中川らの評価表現の部分依存構造木の評価極性を,規則により 決定的に決めていく方法 Tree-CRF 中川らの隠れ変数を持つ CRF による手法 MFS データセットの中でもっとも大きい割合の回答 (ここではネガティブ)を常に選ぶベースライン LogRes-BoF 1-of-K の単語ベクトルの average で文ベクトルを作成し,PCA により 200 次元まで次元削減を施した行列を線形分類器(ロジ スティック回帰)で分類 SdA-BoF LogRes-BoF で作成したベクトルを SdA で分類 LogRes-w2v 単語の分散表現で作成した文ベクトルを,線形分類器(ロジス ティック回帰)で分類 SdA-w2v 単語の分散表現で作成した文ベクトルを SdA を用いて分類を行 う提案手法 SdA-w2v-neg Nakagawa らと同様,否定表現に対して処理を施して単語の分 散表現を作成し,SdA を使って分類 18
19.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 実験:比較(ハイパーパラメータ) 19 ノイズレート 0 % 10 % 20 % 30 % 中間層数 1 2 3 4 5 6 中間ノード次元 100 300 500 700 ノイズレート:0 % vs. 他で denoising の効果を調べる 中間層数:1層 vs. 他で多層の効果を調 べる
20.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 実験:結果(手法) 20 手法 正解率 Tree-規則 [1] 72.6 % Tree-CRF [1] 78.9 % MFS 70.4 % LogRes-BoF 70.8 % SdA-BoF 76.9 % LogRes-w2v 79.5 % SdA-w2v 81.7 % SdA-w2v-neg 80.9 % [1] 中川ら,隠れ変数を持つ条件付き確率場による依存構造木の評価極性分類,(2010)
21.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 実験:結果(ハイパーパラメータ) 21 ノイズレート 正解率 0 % 81.1 % 10 % 81.5 % 20 % 81.4 % 30 % 80.9 % 中間層数 正解率 1 80.6 % 2 80.4 % 3 81.1 % 4 81.6 % 5 81.4 % 6 81.1 %中間ノード数 正解率 100 81.1 % 300 81.2 % 500 81.3 % 700 81.2 % 組み合わせ 正解率 10%-4-500 81.7 % SdA-w2v-neg 80.9 %
22.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 考察:手法 p Bag-of-Features vs. word2vec n LogRes-BoF(70.8%) vs. LogRes-w2v(79.5%) n SdA-BoF(76.9%) vs. SdA-w2v(81.7%) n w2v の方が BoF と比べて 4.8 ∼ 8.7 ポイントの向上 n 単語分散表現の効果が大きい p LogRes vs. SdA n LogRes-BoF(70.8%) vs. SdA-BoF(76.9%) n LogRes-w2v(79.5%) vs. SdA-w2v(81.7%) n SdA の方が LogRes よりも 2.2 ∼ 6.1 ポイントの向上 n 線形分類器よりも断然性能いい p 否定表現処理 vs. 非処理 n 処理していないものと比べて正解率が下がった(-0.8 ポイント) n 少し意外な結果 n 否定表現の数自体多くないため 22
23.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 考察:パラメータ p denoising n 全く denoising しないものと比べると,少し denoising した (10%)方がよりよい性能(+0.4 ポイント)を発揮できた n denoising の効果は発揮できた p 中間層 n ただの AE(1層)よりも,多層にした方(4層)がより良い 性能(+1.0 ポイント)を発揮した. n ただの AE だと抽出できないような抽象的な特徴を捉えるこ とができてる p 中間ノード n あまり大きな変化は見られなかった(200 次元の増減で ±0.1 ポイント) n 顕著な変化を得るためにはさらに増減幅を増やす必要がある 23
24.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 0.3 0.8 0.8 1.1 0.9 1.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1 2 3 4 5 6 時間[hour] 中間層数 中間層数の学習時間変化 考察:パラメータ p パラメータによっての学習時間変化 24 0.8 3.6 10.2 23.8 0.0 5.0 10.0 15.0 20.0 25.0 100 300 500 700 時間[hour] 中間ノード次元 中間ノード次元の学習時間変化 n 中間層の数を増やしても,学習時間の増加は緩やかである n それに対し中間ノード次元の場合,学習時間の増加は顕著である n これは SdA の構造(結合の数)に起因すると考えられる n また,前掲した正解率からも分かるように正解率の変化は少ないので, 次元を増やすよりも中間層数を増加させたほうが性能の向上につながる
25.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 考察:事例分析(正答例) 極性 例文 P 同25日の毎日新聞との単独会見では,貧困率などの細かい数字を挙 げて10年間の政権の成果を強調し「フジモリズムはペルー全土に根 付いている」と胸を張った. P 牛で成功したクローン技術を人へ応用するのは難しいことではない. N 世界経済は,好調を続ける米国とは対照的に,日本や欧州では回復へ の足取りが重く,日本も今年上半期まで明確な回復軌道が示されなけ れば,各国が一層の景気回復策を求めてくる可能性がある. 25 n 「フジモリズム」といった造語に対しても,BoF などが苦手とした データスパースネス問題に影響されずに頑健に分類できている. n 線形分類器や1層の AE などで有効な特徴の抽出が困難な二重否定や 長い文に対しても上手く対応できている.
26.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 考察:事例分析(誤答例) 極性 例文 N もう少し配慮した書き方があったかなとも思う」と反省を口にした. P 教育省の談話は「歴史教科書は歴史の真相を反映すべきであり,そう してこそ若い世代に正しい歴史観をもたせ,悲劇の再演を防止でき る」と批判した. P 同市は圧力に屈せず,この宣言を守り抜いてもらいたい. 26 n 人間でもアノテーションで揺れる傾向がある n 「反省」という単語をポジティブと捉えるかネガティブと捉えるかの境界線 は曖昧 n 「悲劇の再演を防止する」とあるが,最後に「批判した」に続くのでどちら により重みを置くかは人によって異なると考えられる. n 「圧力に屈せず」という極性の反転が起きているが,提案手法では上手く対 処できなかったが,否定処理を施した手法ではこれに正解した.
27.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 まとめ・展望 本研究では p 評価極性分類タスクにおいて,大規模コーパスから学習し た単語分散表現を用いることと,多層の Denoising Auto- Encoder を用いることが分類性能に大きく寄与することを 示した. p 日本語の評価極性分類タスクに対し,複雑なモデルを設計 することなく,現時点における世界最高精度を達成した. 展望として p 文の分散表現を作成するにあたって,Recurrent Neural Network や Recursive Neural Network で文の大域的な情報 を獲得する試みをしていきたい. 27
28.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 タスク:評価極性分類 (例)ある記事に対して,様々な評価が存在する 28 牛で成功したクローン技術を人へ応用する のは難しいことではない. 私たちの夢の五輪を汚されてショックを受 けている.
29.
単語分散表現を用いた多層 Denoising Auto-Encoder
による評価極性分類 タスク:評価極性分類 29 牛で成功したクローン技術を人へ応用する のは難しいことではない. 私たちの夢の五輪を汚されてショックを受 けている. (例)評価文を学習し,その極性を予測する Positive Negative
Download