SlideShare a Scribd company logo
1 of 93
Step by Stepで学ぶ自然言語処理における深層学習
の勘所
自己紹介
大串 正矢
@SnowGushiGit
ポート株式会社
Web開発事業部 研究チーム
Tech-Circle 運営スタッフ
機械学習/自然言語処理
インフラ自動構築 /並列分散処理
Python
2
Agenda
• 機械学習
• 深層学習(ニューラルネットワーク)
• 自然言語処理における深層学習
• 勉強方法
3
機械学習とは
4
機械学習とは
5
• 人がルールを教えるのではなくデータからルールを学習する方法
人 ルール
データ ルール学習
機械学習の利点と欠点
6
機械学習の利点と欠点
7
• 利点
• 欠点
速い 24時間動作 分野によっては高精度
データ依存 精度が出せる分野が限られる適切なデータの準備
機械学習をどこで使うか
8
機械学習をどこで使うか
9
• 値の予測
• 分類
商品のレコメンド
購入者が好きそうな商品のスコアを計
算しレコメンド
迷惑フィルタ
無限に近いパターンから迷惑メールと
そうでないパターンを分類
機械学習の適用が難しい所
10
機械学習の適用が難しい所
11
データの用意が難しい分野
法的な問題(プライバシーなど
)
少量のデータしかない
人でも分からない問題ミスが許されない分野
機械学習の仕組み
12
機械学習の仕組み
13
特徴を抽出
・茶色、肌色
・丸みがある
・etc
学習データ
学習の仕組み
14
機械学習の仕組み
15
教師有り学習 教師なし学習 強化学習
特徴
データ
女性
特徴 女性
答え
特徴 女性
特徴 男性
特徴
データ
特徴
特徴
特徴
特徴空間
ゴール
女性の特徴である髪が長
いかなどの特徴を軸とし
た空間で行動して女性を
探すように学習させる
どれが良いの???
16
どれが良いの???
• 結論:教師有り学習:人間と同じで良い教師がいた方が良くなります
。
• 教師なし学習
• データの分析や特徴量の選出に役に立つ
• 教師有り学習の前の準備に使用するのがベター
• 強化学習
• 特徴量空間の設定とゴールの設定が難しい
• 適用分野や適用方法を絞れば効果的
• ゲームなど明確にルールが決まった分野では強力
17
深層学習の学習方法はどれでしょう
?
18
深層学習の学習方法はどれでしょう
?
19
教師有り学習 教師なし学習 強化学習
特徴
データ
女性
特徴 女性
答え
特徴 女性
特徴 男性
特徴
データ
特徴
特徴
特徴
特徴空間
女性の特徴である髪が長
いかなどの特徴を軸とし
た空間で行動して女性を
探すように学習させる
ゴール
深層学習の適用分野
20
教師有り学習 教師なし学習 強化学習
特徴
データ
女性
特徴 女性
答え
特徴 女性
特徴 男性
特徴
データ
特徴
特徴
特徴
特徴空間
女性の特徴である髪が長
いかなどの特徴を軸とし
た空間で行動して女性を
探すように学習させる
全部できるよ
ゴール
深層学習が
効果を発揮している分野
21
深層学習が
効果を発揮している分野
22
• 画像認識の分野で2位以下に圧倒的な精度の差を出す
• 音声認識の分野でも従来手法を上回る精度
なぜ効果を発揮しているか
23
なぜ効果を発揮しているか
24
• 大量の情報から適切な情報を選択して、それを元に学習している
従来手法
人手で特徴量を抽出
・茶色、肌色
・丸みがある
・etc
従来の機械学習
深層学習
深層学習
特徴量の抽出から学習まで行う
非構造化データ
25
非構造化データ
• 非構造化データとは画像、音声、動画、言語など情報の意味づけがされ
ていないデータ
画像
音声
Data Base
言語
構造化データ非構造化データ
なぜ効果を発揮しているか
27
• 画像、音声には大量の情報を含んだ情報源がある。
エッジ 部分 猫
ピクセル情報
音素 単語 発話
波形情報
低次 高次
なぜ効果を発揮しているか
28
• 低次の情報から高次への情報へ変換する技術が上手く適用されている。
エッジ 部分 猫
ピクセル情報
音素 単語 発話
波形情報
低次 高次
深層学習
非構造化データ
• 次ページから画像、音声で成果を出した深層学習が言語においてどのよ
うな位置づけか述べます。
画像
音声
Data Base
言語
構造化データ非構造化データ
自然言語処理の概要の説明
30
自然言語処理の概要の説明
31
• 自然言語(人の話す言葉)をコンピューターで処理させるための技
術
• 主な応用:日本語入力の予測変換、機械翻訳、検索など
予測変換 機械翻訳 検索
自然言語処理の概要の説明
32
• 自然言語処理の方向性
• 言語の構造を明らかにする
• 言語から情報を得ること
対話 検索
分かち書き 構文解析
S
NP
VP
NP
Neural networks
improv
e
the accuracy
自然言語処理における深層学習の位置づけ
33
自然言語処理における深層学習の位置づけ
34
エッジ 部分 猫
ピクセル情報
音素 単語 発話
波形情報
低次 高次
単語 フレーズ 文表現
深層学習
自然言語処理における深層学習の位置づけ
35
低次 高次
単語 フレーズ 文表現
I show am me your you … when are
1, 0, 0, 0, 0, 0, … 0, 0I
am
Shota
I show am me your you … when are
0, 0, 1, 0, 0, 0, … 0, 0
I show am me your you … when are
0, 0, 0, 0, 0, 0, … 0, 0
数万語以上あるがほとんどが使用されない
データ
36
単語で数万以上…
表現だと
もっと多いのでは
37
深層学習により
単語の空間を
圧縮して
表現の空間を表します
自然言語処理における深層学習の位置づけ
38
低次 高次
単語 フレーズ 文表現
0.5, 0.0, 1.0, 1.0, 0.3, 0.0
I
am
Shota
深層学習により単語の空間を圧縮
深層学習
0.5, 0.0, 1.0, 1.0, 0.0, 0.0
0.5, 0.0, 1.0, 0.5, 0.3, 0.0
データ
39
自然言語処理における深層学習の位置づけ
圧縮された空間を
分散表現
と呼びます。
深層学習による自然言語の分散表現
40
深層学習による自然言語の分散表現
41
I :0
am:0
show:1
me:0
your:0
you:0
:
when:0
are:0
I :0
am:0
show:1
me:0
your:0
you:0
:
when:0
are:0
中間層
が分散表現
分散表現の学習方法
42
分散表現の学習方法
43
• CBOW
• 単語を直接予測
• 小規模なデータセットに良い
• Skip-gram
• 単語から周りの単語を予測
• 大規模なデータセットに使われる
性能が早く高速なのでSkip-Gramが人気
分散表現の学習方法
44
I :0
am:1
show:0
me:0
your:0
you:0
:
when:0
are:0
• CBOW
• 例文: I am Ken
I :0
am:1
show:0
me:0
your:0
you:0
:
when:0
Ken:0
分散表現の学習方法
45
I :0
am:1
show:0
me:0
your:0
you:0
:
when:0
Ken:0
• Skip-Gram
• 例文: I am Ken
I :1
am:0
show:0
me:0
your:0
you:0
:
when:0
Ken:1
分散表現を行うことが可能な
深層学習のモデル
46
分散表現を行うことが可能な
深層学習のモデル
47
• Skip-gram(先ほど説明したモデル)
• Recurrent Neural Network(実装で使用しているモデル)
• Recursive Neural Network
分散表現を行うことが可能な
深層学習のモデル
• Recurrent Neural Network
48
0
0
0
0
1
:
0
出
力
層
例文:Show me your hair
your
hair隠れ
層
meの時
の
隠れ層
変換行列
過去の値をコピー
分散表現を行うことが可能な
深層学習のモデル
49
• Skip-gram(先ほど説明したモデル)
• Recurrent Neural Network(実装で使用しているモデル)
• Recursive Neural Network
分散表現を行うことが可能な
深層学習のモデル
• Recursive Neural Network
• 合成ベクトルを単語から再帰的に予測するニューラルネットワークを構
築
50
S
Neural
単語ベクトル
networks
単語ベクトル
improve
単語ベクトル
the
単語ベクトル
accuracy
単語ベクトル
合成ベクトル
合成ベクトル合成ベクトル
デモに使用したモデル
51
デモに使用したモデル
52
太郎 さん こんにちは
こんにちは<EOS>• Recurrent Neural Network(Seq to Seq)
• 入力側(Encoder)と出力側(Decoder)それぞれRNNを用意
• Encoderによって入力系列を中間ノードに変換しその情報をもとに
Decoderが系列を出力
Encoder Decoder
デモに使用したモデル
53
太郎 さん こんにちは
こんにちは<EOS>• Attention Model
• 出力ステップで、その時の隠れ層を使い入力側の
隠れ層を加重平均したベクトルを出力で使用
+Encoder
Decoder
システム構成
54
System Architecture
55
SQLite
対話破綻
コーパス
ファインチューニ
ング用学習データ
プレトレイン WikiPediaタイ
トルデータ
学習
データ取得データ出力
チューニング
ボット応答
ユーザーアクション
Word Net
Wikipedia
Entity Vector
Word Net
Wikipedia
Entity Vector
Wikipedia Entity Vector と Word Net
を用いた話題選定
56
Wikipedia Entity Vector と Word Net
を用いた話題選定
57
彼氏
妹
パパ
Wikipedia Entity Vector と Word Net
を用いた話題選定
• Word Netは何??
– 単語に概念を付与してグループ化してくれているデータセット
58
スコティッシュ
ホールド
クロネコ オレンジネコ
ネコ
59
Wikipedia Entity Vector と Word Net
を用いた話題選定
しかし概念数が多い
:
その数57,238 概念
概念数が多いと
データを用意しづらい
60
Wikipedia Entity Vector と Word Net
を用いた話題選定
同じような概念があるはず
:
それをまとめたい
Wikipedia Entity Vector と Word Net
を用いた話題選定
• Wikipedia Entity Vectorは何??
– 単語、および Wikipedia で記事となっているエンティティの分
散表現ベクトル
61
62
Wikipedia Entity Vector と Word Net
を用いた話題選定
概念にベクトルが付与できる
:
つまり計算が可能に
(注意:今回は計算量とメモリ
の関係で20万単語のみ使用)
Wikipedia Entity Vector と Word Net
を用いた話題選定
63
Word Netと
Wikipedia Entity Vector
を組み合わせることで
概念クラスを
分散ベクトル化
Wikipedia Entity Vector と Word Net
を用いた話題選定
• Word Net とWikipedia Entity Vectorを組み合わせ
1:Word Netの概念クラスをWikipedia Entity Vectorを用いて
サマライズ
2: Word Netの未知語をWikipedia Entity Vectorで付与
3:概念クラスの平均ベクトルをWikipedia Entity Vectorで
導出
4:概念クラスをサマライズ
5:概念クラス内の単語の頻度が1000以上だけ残す
64
Wikipedia Entity Vector と Word Net
を用いた話題選定
1:Word Netの概念クラスをWikipedia Entity Vectorを用いて
サマライズ
65
ネコ:[0.2, 0.3, 0.4…]
犬:[0.3, 0.4, 0.5…]
Wikipedia
Entity Vector
うさぎ:[0.2, 0.5, 0.4…]
コ
サ
イ
ン
類
似
度
計
算
Wikipedia Entity Vector と Word Net
を用いた話題選定
2: Word Netの未知語をWikipedia Entity Vectorで付与
66
クロネコ
白猫
:
三毛猫
:
ネコWikipedia Entity
Vector
コサイン類似
度
近い
未知語なら
追加
67
Wikipedia Entity Vector と Word Net
を用いた話題選定
各概念に属する単語数が増え
ある程度まとまったが
:
まだ多い
Wikipedia Entity Vector と Word Net
を用いた話題選定
3: 概念クラスの平均ベクトルをWikipedia Entity Vectorで導出
68
クロネコ:[0.2, 0.3, 0.4…]
白猫:[0.1, 0.3, 0.…]
:
ネコ
柴犬:[0.1, 0.3, 0.4…]
土佐犬:[0.1, 0.2, 0.…]
:
犬
平均ベクトル
平均ベクトル
Wikipedia Entity Vector と Word Net
を用いた話題選定
4: 概念クラスをサマライズ
69
クロネコ:[0.2, 0.3, 0.4…]
白猫:[0.1, 0.3, 0.…]
:
ネコ
柴犬:[0.1, 0.3, 0.4…]
土佐犬:[0.1, 0.2, 0.…]
:
犬
平均ベクトル
平均ベクトル
コサイン類似度計算
70
Wikipedia Entity Vector と Word Net
を用いた話題選定
各概念に属する単語数が増え
ある程度まとまったが
:
まだ多い(20000程度)
Wikipedia Entity Vector と Word Net
を用いた話題選定
5: 概念クラス内の単語の頻度が1000以上だけ残す
71
クロネコ
白猫
:
ネコ
柴犬
土佐犬
:
犬
白鳥
アヒル
:
トリ
コアラ
コアラ
72
Wikipedia Entity Vector と Word Net
を用いた話題選定
これで76概念まで減少
:
他は概念を与えないことに
全てのベクトル
使えばもっと良くなるはず・・
Wikipedia Entity Vector と Word Net
を用いた話題選定
73
その 服
可愛い
どこ で
買ったの?
彼氏
イケメン
かっこいい
:
妹
可愛い
服
:
パパ
お金
小遣い
:
単語の平均一致
率計算
Attention Modelを用いた
言葉へのフォーカス
74
Attention Modelを用いた
言葉へのフォーカス
75
私 と仕事の
どっちが 大事 ?
その 服
可愛い
どこ で
買ったの?
パパ 小遣い
頂戴
彼氏
妹
パパ
デモに使用したモデル
76
太郎 さん こんにちは
こんにちは<EOS>• Attention Model
+
Attention Modelを用いた
言葉へのフォーカス
77
• Attention Model
• 詳しくは下記のスライドで
http://www.slideshare.net/yutakikuchi927/deep-learning-nlp-attention
深層学習を実際に適用するには
78
深層学習を実際に適用するには
79
データの用意が難しい分野
法的な問題(プライバシーなど
)
少量の教師データしかない
人でも分からない問題ミスが許されない分野
深層学習を実際に適用するには
80
データの用意が難しい分野
法的な問題(プライバシーなど
)
人でも分からない問題ミスが許されない分野
少量の教師データしかない
深層学習を実際に適用するには
• データの問題
• 法的な問題
• ・・・
• 少量の教師データしかない問題
• 既にある資源の有効活用
• Wikipedia
• WordNet
• etc
• 転移学習
• 事前に他のデータで学習したモデルの重みを使用
• バイトを雇う。外注(クラウドワークス)
• 教師データを作成してもらう。
81
深層学習を実際に適用するには
82
データの用意が難しい分野
法的な問題(プライバシーなど
)
人でも分からない問題ミスが許されない分野
少量の教師データしかない
深層学習を実際に適用するには
• ミスが許されない分野
• 人と機械学習のハイブリッド
• 機械学習で効率化+人で最終チェック
83
+
深層学習を実際に適用するには
84
データの用意が難しい分野
法的な問題(プライバシーなど
)
人でも分からない問題ミスが許されない分野
少量の教師データしかない
深層学習を実際に適用するには
• 人でも分からない問題
• 哲学的なものは厳しい(人はなぜ生きるのかなど)
• フィーリングと勘でやっていて言葉にできない。(営業など)
• 難しい・・けどコミュニケーションを取れば何らかの傾向や
細分化できる部分があるはず。その部分のみ解決することは
可能
85
勉強方法
86
勉強方法
• 王道
• 時間の使い方を変える
• 付き合う人を変える
• 環境を変える
• 独学コース
• 勉強会を主催して、発表することが一番早いと思います!!
87
勉強方法
• 勉強のための教材
• Coursera
• https://www.coursera.org/learn/machine-
learning/home/info
• Stanford University CNN
• http://cs231n.stanford.edu/
88
Conclusion
89
Conclusion
• 機械学習
• 深層学習(ニューラルネットワーク)
• 自然言語処理における深層学習
• 勉強方法
• GithubにStarをくれるとやる気が加速します!!
– githubを“Chainer Slack Twitter”で検索
90
Reference
91
Reference
• Chainerで学習した対話用のボットをSlackで使用+Twitterから学習データを
取得してファインチューニング
– http://qiita.com/GushiSnow/items/79ca7deeb976f50126d7
• WordNet
– http://nlpwww.nict.go.jp/wn-ja/
• 日本語 Wikipedia エンティティベクトル
– http://www.cl.ecei.tohoku.ac.jp/~m-suzuki/jawiki_vector/
• PAKUTASO
– https://www.pakutaso.com/
• A Neural Attention Model for Sentence Summarization
– http://www.aclweb.org/anthology/D15-1044
• 猫の画像(10ページ)
• http://photobucket.com/images/gif%20pixel%20cat%20kitten%20b
lack%20cat%20cute
• 構文解析
• http://qiita.com/laco0416/items/b75dc8689cf4f08b21f6
92
Reference
• 分かち書き画像
• http://www.dinf.ne.jp/doc/japanese/access/daisy/seminar20090211/s
ession1_1.html
• 波形の画像(10ページ)
• http://www.maroon.dti.ne.jp/koten-kairo/works/fft/intro1.html
• Large Scale Visual Recognition Challenge 2012
• http://image-net.org/challenges/LSVRC/2012/results.html
• 音声認識技術 - 大規模テキストアーカイブ研究分野 - 京都大学
• http://www.ar.media.kyoto-u.ac.jp/lab/project/paper/KAW-
IEICEK15.pdf
• iconfinder
• https://www.iconfinder.com/search/?q=Program&price=free
• Machine learningbootstrap For Business
• http://www.slideshare.net/takahirokubo7792/machine-
learningbootstrap-for-business
• A Neural Attention Model for Sentence Summarization [Rush+2015]
(Slide Share)
– http://www.slideshare.net/yutakikuchi927/a-neural-attention-model-
for-sentence-summarization
93

More Related Content

What's hot

20170419PFNオープンハウス リサーチャーの仕事_公開用
20170419PFNオープンハウス リサーチャーの仕事_公開用20170419PFNオープンハウス リサーチャーの仕事_公開用
20170419PFNオープンハウス リサーチャーの仕事_公開用Preferred Networks
 
数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!
数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!
数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!Hideto Masuoka
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことJiro Nishitoba
 
形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介
形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介
形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介Toshinori Sato
 
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みKenta Oono
 
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)STAIR Lab, Chiba Institute of Technology
 
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 TokyoSoftware for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 TokyoShohei Hido
 
CEDEC2018『逆転オセロニア』におけるAI活用
CEDEC2018『逆転オセロニア』におけるAI活用CEDEC2018『逆転オセロニア』におけるAI活用
CEDEC2018『逆転オセロニア』におけるAI活用Jun Okumura
 
画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)
画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)
画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)STAIR Lab, Chiba Institute of Technology
 
Interop2017
Interop2017Interop2017
Interop2017tak9029
 
トピックモデルの話
トピックモデルの話トピックモデルの話
トピックモデルの話kogecoo
 
ディープに作る固有表現認識
ディープに作る固有表現認識ディープに作る固有表現認識
ディープに作る固有表現認識Hiroki Nakayama
 
拡がるディープラーニングの活用
拡がるディープラーニングの活用拡がるディープラーニングの活用
拡がるディープラーニングの活用NVIDIA Japan
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編Daiyu Hatakeyama
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest informationSony Network Communications Inc.
 
Deep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & ChainerDeep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & ChainerPreferred Networks
 
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報NVIDIA Japan
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた正志 坪坂
 
DATUM STUDIO PyCon2016 Turorial
DATUM STUDIO PyCon2016 TurorialDATUM STUDIO PyCon2016 Turorial
DATUM STUDIO PyCon2016 TurorialTatsuya Tojima
 

What's hot (20)

20170419PFNオープンハウス リサーチャーの仕事_公開用
20170419PFNオープンハウス リサーチャーの仕事_公開用20170419PFNオープンハウス リサーチャーの仕事_公開用
20170419PFNオープンハウス リサーチャーの仕事_公開用
 
数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!
数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!
数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なこと
 
形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介
形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介
形態素解析器 MeCab の新語・固有表現辞書 mecab-ipadic-NEologd のご紹介
 
Deep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組みDeep Learning技術の最近の動向とPreferred Networksの取り組み
Deep Learning技術の最近の動向とPreferred Networksの取り組み
 
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
視覚×言語の最前線(ステアラボ人工知能シンポジウム2017)
 
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 TokyoSoftware for Edge Heavy Computing @ INTEROP 2016 Tokyo
Software for Edge Heavy Computing @ INTEROP 2016 Tokyo
 
CEDEC2018『逆転オセロニア』におけるAI活用
CEDEC2018『逆転オセロニア』におけるAI活用CEDEC2018『逆転オセロニア』におけるAI活用
CEDEC2018『逆転オセロニア』におけるAI活用
 
画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)
画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)
画像キャプションの自動生成(第3回ステアラボ人工知能セミナー)
 
Interop2017
Interop2017Interop2017
Interop2017
 
トピックモデルの話
トピックモデルの話トピックモデルの話
トピックモデルの話
 
ディープに作る固有表現認識
ディープに作る固有表現認識ディープに作る固有表現認識
ディープに作る固有表現認識
 
拡がるディープラーニングの活用
拡がるディープラーニングの活用拡がるディープラーニングの活用
拡がるディープラーニングの活用
 
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
 
2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information2018/06/23 Sony"s deep learning software and the latest information
2018/06/23 Sony"s deep learning software and the latest information
 
Deep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & ChainerDeep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & Chainer
 
GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
 
LDA入門
LDA入門LDA入門
LDA入門
 
Infer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみたInfer.NETを使ってLDAを実装してみた
Infer.NETを使ってLDAを実装してみた
 
DATUM STUDIO PyCon2016 Turorial
DATUM STUDIO PyCon2016 TurorialDATUM STUDIO PyCon2016 Turorial
DATUM STUDIO PyCon2016 Turorial
 

Viewers also liked

自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -Ogushi Masaya
 
自然言語処理のビジネス活用新事例
自然言語処理のビジネス活用新事例自然言語処理のビジネス活用新事例
自然言語処理のビジネス活用新事例Hideki Takeda
 
新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料
新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料
新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料tmprcd12345
 
Deep Learningと自然言語処理
Deep Learningと自然言語処理Deep Learningと自然言語処理
Deep Learningと自然言語処理Preferred Networks
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするDaiki Shimada
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京Koichi Hamada
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理Yuya Unno
 
Decoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic GradientsDecoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic Gradientstm_2648
 
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~Toshihiko Yamasaki
 
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかりtm_2648
 
「これからの強化学習」勉強会#2
「これからの強化学習」勉強会#2「これからの強化学習」勉強会#2
「これからの強化学習」勉強会#2Chihiro Kusunoki
 
線形回帰モデル
線形回帰モデル線形回帰モデル
線形回帰モデル貴之 八木
 
Data Visualization at codetalks 2016
Data Visualization at codetalks 2016Data Visualization at codetalks 2016
Data Visualization at codetalks 2016Stefan Kühn
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands onOgushi Masaya
 
自然言語処理システムに想像力を与える試み
自然言語処理システムに想像力を与える試み自然言語処理システムに想像力を与える試み
自然言語処理システムに想像力を与える試みtm_2648
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
 

Viewers also liked (20)

自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
 
自然言語処理のビジネス活用新事例
自然言語処理のビジネス活用新事例自然言語処理のビジネス活用新事例
自然言語処理のビジネス活用新事例
 
新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料
新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料
新事業で目指す自然言語処理ビジネス、その未来 Machine Learning 15minutes! 発表資料
 
Deep Learningと自然言語処理
Deep Learningと自然言語処理Deep Learningと自然言語処理
Deep Learningと自然言語処理
 
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
 
深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向深層学習による自然言語処理の研究動向
深層学習による自然言語処理の研究動向
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理
 
Decoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic GradientsDecoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic Gradients
 
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
 
おしゃスタat銀座
おしゃスタat銀座おしゃスタat銀座
おしゃスタat銀座
 
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
 
「これからの強化学習」勉強会#2
「これからの強化学習」勉強会#2「これからの強化学習」勉強会#2
「これからの強化学習」勉強会#2
 
線形回帰モデル
線形回帰モデル線形回帰モデル
線形回帰モデル
 
Data Visualization at codetalks 2016
Data Visualization at codetalks 2016Data Visualization at codetalks 2016
Data Visualization at codetalks 2016
 
最適腕識別
最適腕識別最適腕識別
最適腕識別
 
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
 
自然言語処理システムに想像力を与える試み
自然言語処理システムに想像力を与える試み自然言語処理システムに想像力を与える試み
自然言語処理システムに想像力を与える試み
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 

Similar to Step by Stepで学ぶ自然言語処理における深層学習の勘所

Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Yuki Ogasawara
 
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発Eric Sartre
 
PubMedBERT: 生物医学NLPのための事前学習
PubMedBERT: 生物医学NLPのための事前学習PubMedBERT: 生物医学NLPのための事前学習
PubMedBERT: 生物医学NLPのための事前学習Naoto Usuyama
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」Shuji Morisaki
 
Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法
Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法
Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法siramatu-lab
 
How to improve performance
How to improve performanceHow to improve performance
How to improve performanceAtsuko Fukui
 
Session2:「グローバル化する情報処理」/伊藤敬彦
Session2:「グローバル化する情報処理」/伊藤敬彦Session2:「グローバル化する情報処理」/伊藤敬彦
Session2:「グローバル化する情報処理」/伊藤敬彦Preferred Networks
 
2008 icse-granularity in software product lines
2008 icse-granularity in software product lines2008 icse-granularity in software product lines
2008 icse-granularity in software product linesn-yuki
 
ITフォーラム2024 AITCセッション(3)
ITフォーラム2024 AITCセッション(3)ITフォーラム2024 AITCセッション(3)
ITフォーラム2024 AITCセッション(3)aitc_jp
 
情報爆発シンポジウム infoplosion
情報爆発シンポジウム infoplosion情報爆発シンポジウム infoplosion
情報爆発シンポジウム infoplosionRakuten Group, Inc.
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎Preferred Networks
 
ニューラルネットワーク勉強会1
ニューラルネットワーク勉強会1ニューラルネットワーク勉強会1
ニューラルネットワーク勉強会1yhide
 
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版Katsuhiro Morishita
 
20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...
20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...
20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...kulibrarians
 
Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史Hirono Jumpei
 
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)Sho Nakamura
 
情報検索の基礎 #9適合フィードバックとクエリ拡張
情報検索の基礎 #9適合フィードバックとクエリ拡張情報検索の基礎 #9適合フィードバックとクエリ拡張
情報検索の基礎 #9適合フィードバックとクエリ拡張nishioka1
 

Similar to Step by Stepで学ぶ自然言語処理における深層学習の勘所 (20)

Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512
 
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
Twitterにおける即時話題推定技術「どたばたかいぎ」の開発
 
Recsys2016勉強会
Recsys2016勉強会Recsys2016勉強会
Recsys2016勉強会
 
PubMedBERT: 生物医学NLPのための事前学習
PubMedBERT: 生物医学NLPのための事前学習PubMedBERT: 生物医学NLPのための事前学習
PubMedBERT: 生物医学NLPのための事前学習
 
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
XP祭り関西2011 森崎 修司「プラクティスが有効にはたらく前提は明らかになっていますか?」
 
Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法
Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法
Web 議論の自動ファシリテーションのための事前知識を用いた質問生成手法
 
How to improve performance
How to improve performanceHow to improve performance
How to improve performance
 
Session2:「グローバル化する情報処理」/伊藤敬彦
Session2:「グローバル化する情報処理」/伊藤敬彦Session2:「グローバル化する情報処理」/伊藤敬彦
Session2:「グローバル化する情報処理」/伊藤敬彦
 
2008 icse-granularity in software product lines
2008 icse-granularity in software product lines2008 icse-granularity in software product lines
2008 icse-granularity in software product lines
 
20050809
2005080920050809
20050809
 
ITフォーラム2024 AITCセッション(3)
ITフォーラム2024 AITCセッション(3)ITフォーラム2024 AITCセッション(3)
ITフォーラム2024 AITCセッション(3)
 
情報爆発シンポジウム infoplosion
情報爆発シンポジウム infoplosion情報爆発シンポジウム infoplosion
情報爆発シンポジウム infoplosion
 
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
 
ニューラルネットワーク勉強会1
ニューラルネットワーク勉強会1ニューラルネットワーク勉強会1
ニューラルネットワーク勉強会1
 
OSS ソースコードサーチツールの効能、有効活用方法
OSS ソースコードサーチツールの効能、有効活用方法OSS ソースコードサーチツールの効能、有効活用方法
OSS ソースコードサーチツールの効能、有効活用方法
 
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版
PythonとRによるデータ分析環境の構築と機械学習によるデータ認識 第3版
 
20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...
20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...
20090827 ku-librarians勉強会 #114 : Wikipediaをいかに使いこなすか? ---知識抽出、情報ナビゲーション、そしてトピ...
 
Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史Chainer on Azure 2 年の歴史
Chainer on Azure 2 年の歴史
 
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
 
情報検索の基礎 #9適合フィードバックとクエリ拡張
情報検索の基礎 #9適合フィードバックとクエリ拡張情報検索の基礎 #9適合フィードバックとクエリ拡張
情報検索の基礎 #9適合フィードバックとクエリ拡張
 

More from Ogushi Masaya

Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification Ogushi Masaya
 
Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)Ogushi Masaya
 
Deep and confident prediction for time series at uber
Deep and confident prediction for time series at uberDeep and confident prediction for time series at uber
Deep and confident prediction for time series at uberOgushi Masaya
 
A dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series predictionA dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series predictionOgushi Masaya
 
Kerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUGKerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUGOgushi Masaya
 
EuroPython 2017 外部向け報告会
EuroPython 2017 外部向け報告会EuroPython 2017 外部向け報告会
EuroPython 2017 外部向け報告会Ogushi Masaya
 
How to apply deep learning to 3 d objects
How to apply deep learning to 3 d objectsHow to apply deep learning to 3 d objects
How to apply deep learning to 3 d objectsOgushi Masaya
 

More from Ogushi Masaya (7)

Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification Deep reinforcement learning for imbalanced classification
Deep reinforcement learning for imbalanced classification
 
Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)Hidden technical debt in machine learning systems(日本語資料)
Hidden technical debt in machine learning systems(日本語資料)
 
Deep and confident prediction for time series at uber
Deep and confident prediction for time series at uberDeep and confident prediction for time series at uber
Deep and confident prediction for time series at uber
 
A dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series predictionA dual stage attention-based recurrent neural network for time series prediction
A dual stage attention-based recurrent neural network for time series prediction
 
Kerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUGKerasを用いた3次元検索エンジン@TFUG
Kerasを用いた3次元検索エンジン@TFUG
 
EuroPython 2017 外部向け報告会
EuroPython 2017 外部向け報告会EuroPython 2017 外部向け報告会
EuroPython 2017 外部向け報告会
 
How to apply deep learning to 3 d objects
How to apply deep learning to 3 d objectsHow to apply deep learning to 3 d objects
How to apply deep learning to 3 d objects
 

Step by Stepで学ぶ自然言語処理における深層学習の勘所

Editor's Notes

  1. http://compfight.com/
  2. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  3. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  4. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  5. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  6. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  7. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  8. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  9. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  10. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  11. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  12. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  13. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  14. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  15. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  16. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  17. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  18. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  19. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  20. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  21. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  22. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  23. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  24. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  25. エンティティとは一つの概念
  26. エンティティとは一つの概念
  27. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  28. 0.5以上ならまとめる。
  29. 0.5以上ならまとめる。
  30. 0.5以上ならまとめる。
  31. 0.5以上ならまとめる。
  32. 0.5以上ならまとめる。
  33. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  34. 単純に終わらないので印ドメインにリカレントが強いと言っています。 計算上のテクニックが発展すれば、アウトドメインに対応できるようになると思います。
  35. http://www.aclweb.org/anthology/D15-1044
  36. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  37. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  38. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  39. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  40. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  41. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  42. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  43. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため
  44. サマライズした理由は一つの概念クラスの単語数が少ないので疎なクラスしか用意できないため、後述のニューラルネットに用意するための学習データが十分確保できないため