SlideShare a Scribd company logo
1 of 19
Large-Scale Information
Extraction from Textual Definitions
through Deep Syntactic and
Semantic Analysis
TACL 2015
Claudio Delli Bovi, Luca Telesca
and Roberto Navigli
Presentation: Koji Matsuda (Tohoku University)
1
著者のスライドから一部の図を拝借しています:
http://wwwusers.di.uniroma1.it/~dellibovi/talks/talk_OIE.pdf
すごいKnowledge Base
どんな論文?:テキストから知識を抽出
• 本論文の主張:
– 文中のエンティティ・語義をグラウンディング
(WSD, EL)してから Open IE しましょう!
– 密で質の良い(曖昧性が解消された)知識が獲得で
きます
2
マイタイ ( MAI-TAI ) と
は、ラムをベースとし
たカクテルである。
「トロピカル・カクテ
ルの女王」などと称さ
れることもある。
主語 述語 目的語
マイタイ とは カクテル
マイタイ ベース ラム
マイタイ 称される 「トロピ
….」
: : :
<arg1, relation, arg2>
どんな論文?: 曖昧性が解消された
知識を作ります
• ポイント
– Entity Linking, WSD, Parsing の結果得られたグラフ
から知識獲得
• エンティティ / 語義 に紐付いた知識を構文木から
獲得
⇔ 表層(mention)に関する情報を獲得
– 入力を「定義文」に絞る
• ノイズが少ないテキストから (Precisionの高い)知識を獲得
⇔ ノイジーなウェブスケールのコーパス(ClueWeb等)から多
様な知識を獲得
• 成果
– Fully Disambiguated な KB
– Open-vocabrary だけど (比較的) dense
3
グラウンディング(EL, WSD)してか
ら知識を抽出
4
マイタイ ( MAI-TAI ) とは、
ラムをベースとしたカク
テルである。「トロピカ
ル・カクテルの女王」な
どと称されることもある。
マイタイ ( MAI-TAI ) とは、
ラムをベースとしたカク
テルである。「トロピカ
ル・カクテルの女王」な
どと称されることもある。
マイタイ ( MAI-TAI ) と
は、ラムをベースとし
たカクテルである。
….....
元にした
呼ばれる
✓
×
×
✓
エンティティ
語義主語 述語 目的語
マイタイ_bn038v とは_bn038v カクテル_bn038v
マイタイ_bn038v 元にした_bn038v ラム_bn038v
マイタイ_bn038v 呼ばれる_bn038v 「トロピ….」
: : :
曖昧性が
解消され
た知識
ベース
入力を定義文に絞る
5
ここから
精密に知
識抽出し
ます
ここは扱
いません
背景 - 最近のKB生成
• Open IE とその子孫たち
– NELL [Carlson+, 2012] / ReVerb [Fader+, 2011] / Ollie
[Mausam+, 2012]
• KB 拡張、特に Distant Supervision / Universal
Schema
– [Hoffmann+, 2011] / [Riedel+, 2010]
• どちらの技術も、
– 「巨大なコーパスから, 多様な関係を取る」という方
向性に進化
• その結果出てきている問題
– Argument も Relation も曖昧性が解消されていない
– スパースすぎて使い物にならない
• 関係のロングテール
6
DefIE
7
DefIE:How it works
http://lcl.uniroma1.it/defie
“Atom Heart Mother is the fifth
album by English band Pink Floyd.”
Syntactic-Semantic
Graph 𝑮 𝑑
𝑠𝑒𝑚
1. Extracting relation instances
Dependency Parse
Entity Linking, WSD
このグラフから情報を取り出す
Syntactic-Semantic Graphからの
知識獲得
8
DefIE:How it works
http://lcl.uniroma1.it/defie
=
=
=
=
Extraction1Extraction2
1. Extracting relation instances
エンティティペアの最短パスを取る
不要な知識がいっぱい取れるので、スコアリングします
知識ベースを使ったスコアリング
9
DefIE:How it works
http://lcl.uniroma1.it/defie
2. Relation typing and scoring
For each relation 𝑅:
Compute the score of 𝑅 as
Total number of
extracted instances
for 𝑅
Length of the
relation pattern of 𝑅
Domain and range
entropy of 𝑅
知識ベースにグラウンドされているので、知識ベースを使ってRelationの
良し悪しをはかることが可能
パタンの頻度
パタンの(項の)曖昧性
Domain, Rangeの上位語を
(BabelNetから)求めて、その
上で曖昧性を計算
パタンの長さ
スコアの計算例
10
DefIE:How it works
http://lcl.uniroma1.it/defie
2. Relation typing and scoring
Relation Taxonomization
11
DefIE:How it works
http://lcl.uniroma1.it/defie
3. Relation taxonomization
Hypernym Generalization Substring Generalization
Evaluation
• 入力コーパス:
– BabelNet の ``definition’’ : 4.4M sentence
• Wikipedia の first-sentence が主
– WSD, EL:
• 比較
– NELL [Carlson+, 2010]
– PATTY+Wikipedia [Nakashole+, 2012]
– ReVerb+ClueWeb [Fader+, 2010]
– WiSeNet+Wikipedia [Moro and Navigli, 2013]
12
グラフベースの手
法 [Moro, 2013]
Evaluation (Size, Precision)
13
入力テキストコーパスは比較的小さい(4.4M Sentence)
が、より多くの知識を獲得できている
定義文だけ
Full
Wikipedia
Full
Wikipedia
ClueWeb
09
Evaluation (Precision, Novelty)
14
サンプルした
知識を人手で
見て正しいか
評価
等価な知識
が存在する
か、対抗KB
に対して人
手で調査
6割の知識は
ReVerbでは
取れない
Evaluation (Coverage)
15
Musicianに関するWikipediaの記事
5記事に対して
人力 IE して Gold を作成、そのう
ちどれくらいをカバーできるか調
査
• FB, Dbpediaは本文の情報を
使っていない
Freebaseから100個取ってくると、
そのうち83個くらいはDefIEでカ
バーできている
ウェブスケールのコーパスを
使わなくても、7割くらいカバーで
きる
Evaluation (その他)
16
non-definitional textを入力に
すると、precisionがガクッ
と下がる
既存手法の入力を
definitional textだけ
にすると、獲得数がガクッ
と下がる
従属節, 共参照 etc…
まとめ
• モノの定義に関する「グラ
ウンドされた知識」をテキ
ストから抽出
– EL, WSD, Parsing
• やみくもに大規模コーパス
を使うのではなく、定義文
のみから既存のKBに入って
いないような知識が獲得で
きている
17
ここから知識を抽出
18
BabelNet
• Multilingual Encyclopedic Dictionary
– Lexicographic & Encyclopedic knowledge
– Based on Automatic Integration of :
• WordNet, Wikipedia, Wiktionary, …
Named Entities and specialized
concepts from Wikipedia
Concepts from WordNet
50 Languages
21M definitions
62M entries
18
Concepts integrated from both
resources
19
Lexical Knolwdge
Base
Encyclopedical Knolwdge Base
Integrated Knowledge Base
Thomas Muller
striker
Munich
Mario Gomez
Thomas Millan
playing
FC Bayern Munich
Semantic Interpretation Graph
Semantic Signature
→ Select most suitable meaning on the Graph
Thomas and Mario
are strikers playing
in Munich. They are
…
Input Text
[Moro+, 2013]

More Related Content

Viewers also liked

第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not
第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not
第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or NotShuntaro Yada
 
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...Yuichiroh Matsubayashi
 
Language and Domain Independent Entity Linking with Quantified Collective Val...
Language and Domain Independent Entity Linking with Quantified Collective Val...Language and Domain Independent Entity Linking with Quantified Collective Val...
Language and Domain Independent Entity Linking with Quantified Collective Val...Shuangshuang Zhou
 
KB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみたKB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみたKoji Matsuda
 
Pointing the Unknown Words
Pointing the Unknown WordsPointing the Unknown Words
Pointing the Unknown Wordshytae
 
Harnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic RulesHarnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic RulesSho Takase
 
Black holes and white rabbits metaphor identification with visual features
Black holes and white rabbits  metaphor identification with visual featuresBlack holes and white rabbits  metaphor identification with visual features
Black holes and white rabbits metaphor identification with visual featuresSumit Maharjan
 
Visualizing and understanding neural models in NLP
Visualizing and understanding neural models in NLPVisualizing and understanding neural models in NLP
Visualizing and understanding neural models in NLPNaoaki Okazaki
 
"Joint Extraction of Events and Entities within a Document Context"の解説
"Joint Extraction of Events and Entities within a Document Context"の解説"Joint Extraction of Events and Entities within a Document Context"の解説
"Joint Extraction of Events and Entities within a Document Context"の解説Akihiro Kameda
 
Extraction in pharmaceutics
Extraction in pharmaceuticsExtraction in pharmaceutics
Extraction in pharmaceuticsMudassar Ahmed
 

Viewers also liked (11)

第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not
第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not
第8回最先端NLP勉強会 EMNLP2015 Guosh et al Sarcastic or Not
 
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
Improving Coreference Resolution by Learning Entity-Level Distributed Represe...
 
Language and Domain Independent Entity Linking with Quantified Collective Val...
Language and Domain Independent Entity Linking with Quantified Collective Val...Language and Domain Independent Entity Linking with Quantified Collective Val...
Language and Domain Independent Entity Linking with Quantified Collective Val...
 
Snlp2016 kameko
Snlp2016 kamekoSnlp2016 kameko
Snlp2016 kameko
 
KB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみたKB + Text => Great KB な論文を多読してみた
KB + Text => Great KB な論文を多読してみた
 
Pointing the Unknown Words
Pointing the Unknown WordsPointing the Unknown Words
Pointing the Unknown Words
 
Harnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic RulesHarnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic Rules
 
Black holes and white rabbits metaphor identification with visual features
Black holes and white rabbits  metaphor identification with visual featuresBlack holes and white rabbits  metaphor identification with visual features
Black holes and white rabbits metaphor identification with visual features
 
Visualizing and understanding neural models in NLP
Visualizing and understanding neural models in NLPVisualizing and understanding neural models in NLP
Visualizing and understanding neural models in NLP
 
"Joint Extraction of Events and Entities within a Document Context"の解説
"Joint Extraction of Events and Entities within a Document Context"の解説"Joint Extraction of Events and Entities within a Document Context"の解説
"Joint Extraction of Events and Entities within a Document Context"の解説
 
Extraction in pharmaceutics
Extraction in pharmaceuticsExtraction in pharmaceutics
Extraction in pharmaceutics
 

Similar to Large-Scale Information Extraction from Textual Definitions through Deep Syntactic and Semantic Analysis

Neural Concept Network v0.2 (ja)
Neural Concept Network v0.2 (ja)Neural Concept Network v0.2 (ja)
Neural Concept Network v0.2 (ja)AkihiroYamamoto
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarKodaira Tomonori
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニングgenroku
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについてMasahiro Suzuki
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 Yuki Arase
 
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...禎晃 山崎
 
日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築Tomoyuki Kajiwara
 
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 Yuki Arase
 
パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"Keisuke Takahashi
 
実はとても面白い...Documentation library
実はとても面白い...Documentation library実はとても面白い...Documentation library
実はとても面白い...Documentation libraryKouta Shiobara
 
Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Yuki Ogasawara
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)mosa siru
 
卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイントTsubasa Hirakawa
 
Creating and Using Links between Data Objects
Creating and Using Links between Data ObjectsCreating and Using Links between Data Objects
Creating and Using Links between Data ObjectsMitsuo Yamamoto
 
PHP基礎勉強会
PHP基礎勉強会PHP基礎勉強会
PHP基礎勉強会Yuji Otani
 
いいパブッ!! - よくわかるEPUB 3
いいパブッ!! - よくわかるEPUB 3いいパブッ!! - よくわかるEPUB 3
いいパブッ!! - よくわかるEPUB 3Hiroshi Takase
 
マイニング探検会#11
マイニング探検会#11マイニング探検会#11
マイニング探検会#11Yoji Kiyota
 

Similar to Large-Scale Information Extraction from Textual Definitions through Deep Syntactic and Semantic Analysis (20)

Neural Concept Network v0.2 (ja)
Neural Concept Network v0.2 (ja)Neural Concept Network v0.2 (ja)
Neural Concept Network v0.2 (ja)
 
識別子とスキーマ
識別子とスキーマ識別子とスキーマ
識別子とスキーマ
 
Abstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminarAbstractive Text Summarization @Retrieva seminar
Abstractive Text Summarization @Retrieva seminar
 
蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング蔵書選定のための学位論文タイトルマイニング
蔵書選定のための学位論文タイトルマイニング
 
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて深層生成モデルと世界モデル,深層生成モデルライブラリPixyzについて
深層生成モデルと世界モデル, 深層生成モデルライブラリPixyzについて
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
 
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
 
日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築
 
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[旧版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
 
パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"パーフェクト"Elixir情報収集"
パーフェクト"Elixir情報収集"
 
実はとても面白い...Documentation library
実はとても面白い...Documentation library実はとても面白い...Documentation library
実はとても面白い...Documentation library
 
Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512Lab-ゼミ資料-5-20150512
Lab-ゼミ資料-5-20150512
 
捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
 
Pfi last seminar
Pfi last seminarPfi last seminar
Pfi last seminar
 
卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント卒論執筆・スライド作成のポイント
卒論執筆・スライド作成のポイント
 
Acl2020 taguchi
Acl2020 taguchiAcl2020 taguchi
Acl2020 taguchi
 
Creating and Using Links between Data Objects
Creating and Using Links between Data ObjectsCreating and Using Links between Data Objects
Creating and Using Links between Data Objects
 
PHP基礎勉強会
PHP基礎勉強会PHP基礎勉強会
PHP基礎勉強会
 
いいパブッ!! - よくわかるEPUB 3
いいパブッ!! - よくわかるEPUB 3いいパブッ!! - よくわかるEPUB 3
いいパブッ!! - よくわかるEPUB 3
 
マイニング探検会#11
マイニング探検会#11マイニング探検会#11
マイニング探検会#11
 

More from Koji Matsuda

Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...
Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...
Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...Koji Matsuda
 
知識を紡ぐための言語処理と、 そのための言語資源
知識を紡ぐための言語処理と、そのための言語資源知識を紡ぐための言語処理と、そのための言語資源
知識を紡ぐための言語処理と、 そのための言語資源Koji Matsuda
 
「今日から使い切る」 ための GNU Parallel による並列処理入門
「今日から使い切る」ための GNU Parallelによる並列処理入門「今日から使い切る」ための GNU Parallelによる並列処理入門
「今日から使い切る」 ための GNU Parallel による並列処理入門Koji Matsuda
 
場所参照表現タグ付きコーパスの 構築と評価
場所参照表現タグ付きコーパスの構築と評価 場所参照表現タグ付きコーパスの構築と評価
場所参照表現タグ付きコーパスの 構築と評価 Koji Matsuda
 
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介Koji Matsuda
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5Koji Matsuda
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...Koji Matsuda
 
Joint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary FeaturesJoint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary FeaturesKoji Matsuda
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component AnalysisKoji Matsuda
 
A Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleA Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleKoji Matsuda
 
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric LearningKoji Matsuda
 
Unified Expectation Maximization
Unified Expectation MaximizationUnified Expectation Maximization
Unified Expectation MaximizationKoji Matsuda
 
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)Koji Matsuda
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節Koji Matsuda
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節Koji Matsuda
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Koji Matsuda
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 

More from Koji Matsuda (18)

Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...
Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...
Reading Wikipedia to Answer Open-Domain Questions (ACL2017) and more...
 
知識を紡ぐための言語処理と、 そのための言語資源
知識を紡ぐための言語処理と、そのための言語資源知識を紡ぐための言語処理と、そのための言語資源
知識を紡ぐための言語処理と、 そのための言語資源
 
「今日から使い切る」 ための GNU Parallel による並列処理入門
「今日から使い切る」ための GNU Parallelによる並列処理入門「今日から使い切る」ための GNU Parallelによる並列処理入門
「今日から使い切る」 ための GNU Parallel による並列処理入門
 
場所参照表現タグ付きコーパスの 構築と評価
場所参照表現タグ付きコーパスの構築と評価 場所参照表現タグ付きコーパスの構築と評価
場所参照表現タグ付きコーパスの 構築と評価
 
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
Entity linking meets Word Sense Disambiguation: a unified approach(TACL 2014)の紹介
 
いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5いまさら聞けない “モデル” の話 @DSIRNLP#5
いまさら聞けない “モデル” の話 @DSIRNLP#5
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...Align, Disambiguate and Walk  : A Unified Approach forMeasuring Semantic Simil...
Align, Disambiguate and Walk : A Unified Approach forMeasuring Semantic Simil...
 
Joint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary FeaturesJoint Modeling of a Matrix with Associated Text via Latent Binary Features
Joint Modeling of a Matrix with Associated Text via Latent Binary Features
 
Vanishing Component Analysis
Vanishing Component AnalysisVanishing Component Analysis
Vanishing Component Analysis
 
A Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleA Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by Example
 
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric Learning
 
Unified Expectation Maximization
Unified Expectation MaximizationUnified Expectation Maximization
Unified Expectation Maximization
 
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
Language Models as Representations for Weakly-­Supervised NLP Tasks (CoNLL2011)
 
研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節研究室内PRML勉強会 11章2-4節
研究室内PRML勉強会 11章2-4節
 
研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節研究室内PRML勉強会 8章1節
研究室内PRML勉強会 8章1節
 
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 

Large-Scale Information Extraction from Textual Definitions through Deep Syntactic and Semantic Analysis