Loading…

Flash Player 9 (or above) is needed to view presentations.
We have detected that you do not have it on your computer. To install it, go here.

Like this presentation? Why not share!

統計的係り受け解析入門

on

  • 10,851 views

 

Statistics

Views

Total Views
10,851
Views on SlideShare
9,889
Embed Views
962

Actions

Likes
22
Downloads
141
Comments
0

8 Embeds 962

http://blog.unnono.net 549
http://unnonouno.blogspot.com 360
https://twitter.com 40
https://www.facebook.com 4
http://www.facebook.com 4
http://unnonouno.blogspot.jp 3
http://webcache.googleusercontent.com 1
https://si0.twimg.com 1
More...

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

統計的係り受け解析入門 統計的係り受け解析入門 Presentation Transcript

  • 自然言語処理勉強会@東京 自然言語処理勉強会@東京 統計的係り受け解析入門 日本アイ・ビー・エム(株)東京基礎研究所 海野 裕也(@unnonouno) © 2010 IBM Corporation
  • IBM Research - Tokyo 自己紹介 (1/2) 海野 裕也(うんの ゆうや) –twitter: @unnonouno –blog: http://unnonouno.blogspot.com –NLPかプログラミングか写真の話題 日本アイ・ビー・エム 東京基礎研究所所属 –今はTRLという略称は使われていません:) –テキストマイニング,自然言語処理の研究開発 –主に,動的計画法と木構造と戯れている 2 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 自己紹介 (2/2) @unnonouno 読めない unno / no / uno –≠unnounno, unonono –たまにリプライ先を間違えられる 海野(うんの) / の / UNO –この文自体に特に意味はない かな漢字変換と分かち書きという日本語自然言語処理 特有の問題を表したID 3 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 今日のお話 係り受け解析とは何か知ろう いくつかの重要な用語,記法を知ろう 典型的なアルゴリズムを知ろう 4 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ 5 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ 6 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受け解析とは何か? 各単語(or文節)の係り先を決定する 係り先とは何ぞや?という問題は割愛します :) 紫の部分を当てる問題 今日, 私は NLPの 発表を した。 ※日本語だと係り元から係り先を指すことが多い 7 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 海賊王に俺はなる! どちらも自然に 扱える 係り受け(依存文法) 俺は 海賊王に なる! 海賊王に 俺は なる! 句構造文法 ? 文 文法は適当です 文法を変える? 動詞節 左の構造を変換 する? 名詞節 名詞節 動詞節 俺は 海賊王に なる! 海賊王に 俺は なる! 8 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受け解析の応用例 情報抽出に使う –「私は・・・発表を・・・した」を探す 私は 発表を した。 ○ 今日, 私は NLPの 発表を した。 × 私は 発表を した 人と 話した。 単なる単語共起ではゴミが多いときに有効 9 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 教科書の紹介 Dependency Parsing (Synthesis Lectures on Human Language Technologies) –S. Kubler, R. McDonald, J. Nivre –MSTパーザーのR. McDonaldとShift- ReduceパーザーのJ. Nivreの本 –読みやすいのでお勧め 言語と計算 (4) 確率的言語モデル –北 研二, 辻井 潤一 –この本にもEisner法と同等の手法が載ってる –最近の本を知っている人は教えてください 10 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受け解析の用語 交差あり (non-projective) 交差なし (projective) 最近は交差を許す問題設定が多い ほとんどの場合,交差しない 双方向 単方向 英語など一般的には双方向 日本語書き言葉など一部の言語 今日は,交差なし・双方向を中心にはなします 11 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 問題の定式化 国際的には矢印は逆向き 今日, 私は NLPの 発表を した。 入力 –単語列 S = {w1, …, wn} 日本語の場合,文節単 出力 位のことも多い –係り先 D = {d1, …, dn} –ただし,連結・非サイクルである必要アリ 長さnの単語列の各単語の係り先を出力 ラベル付きなどもあるが今回は無視 12 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 思いつくままにやってみる(品詞編) 係り関係になりそうな品詞組みを考える –名詞,→動詞 –名詞は→動詞 –名詞の→名詞 今日, 私は NLPの 発表を した。 –名詞を→動詞 係り関係になる品詞対をルール化すればよさそう 13 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 品詞だけでは解決できない例がすぐ思い浮かぶ 値段の 値段 高い ワインを 飲んだ。 父の 高い ワインを 飲んだ。 同じ名詞なのに係り先が異なる 本質的に曖昧な文も存在する –ex. 黒い目の大きな女の子 14 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo プログラミング言語の構文解析との違い プログラミング言語の文法は曖昧性がない –1つの文に対して高々1つの構文木しか存在しない –線形時間で必ず解析できるクラスに限定される 自然言語の文法は曖昧 –1つの文に対して解釈可能な構文木が複数存在する –一般的には文長の指数個候補が存在する ルールのみでは1つの構文木に決定できない 15 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 機械学習を使ってみよう それぞれの単語の係り先を多値分類 今日, 私は NLPの 発表を した。 交差しないよう,全単語に対して繰り返す 今日, 私は NLPの 発表を した。 これで結構いい精度がでる –通称,相対モデル [工藤&松本04] –多値分類は最大エントロピー法を使う 16 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受け解析の難しさ 先の手法は全候補を網羅していない 出力の候補は入力長の指数オーダー以上 –各単語の係り先候補がnくらいあるので,出力Dの候補は 大体nnくらいある これを解消するために色んなテクを駆使する –文法理論,機械学習,動的計画法,グラフ理論,整数計 画法 本質的には膨大な候補存在する ところをどう抑えるかが鍵 17 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ 18 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受け解析の2大派閥 膨大な候補から選ぶ戦略として2つの手法方向性がある Transition-based (局所最適型) –局所的な選択を繰り返すため,大域最適ではない –複雑な特徴量を使える –Shift-Reduce Graph-based (大域最適型) –全候補の中からスコア最大の木を選ぶ –単純な特徴量しか使えない –MST,Eisner 19 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 両者を比較する 大域素性 両方満たす代わり に解は近似解 Shift-Reduce ILP 性能が良い Higher-order 局所最適 大域最適 Eisner 性能が悪い 計算量を抑えながら大域素 Eisner 性・大域最適を目指したい MST ローカル素性 20 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 今日紹介する手法 Shift-Reduce法 –Transition-basedの代表的な手法 –実装簡単,高速 Eisner法 –Graph-basedの代表的な手法の一つ –動的計画法は楽しい –※こっちがメインです 21 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Shift-Reduce法 [Nivre03, Yamada&Matsumoto03] 前から順に読んで,未処理の単語をスタックに積む スタックと次の単語間に係り関係があったら消す 前から読んでいく人間の理解に近い(?) 例)今日,私はNLPの・・・ スタック NLPの 私は 発表を した。 今日, ※係り先が決まっていない単語 22 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Shift-Reduce法の特徴 積む(shift)か消す(reduce)の分類を繰り返す 利点 –高速(線形時間),作るのが簡単 –遠くの構造を素性に入れられる –大域最適ではない(garden pathなどに弱い) 欠点 –自明には交差に対応できない pen is a a pen This This is is is is is shift shift left shift shift left right 23 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Shift-Reduceの詳細 [Nivre04] pen is a a pen This This is is is is is shift shift left shift shift left right This is a pen 入力をそのまま積む(shift) スタックの上2つに係り関係をつける(left / right) 操作の異なる亜種は多い これらの操作で生成される構造に交差はない 24 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Swap操作で交差へ対応 [Nivre09] スタックの2番目の要素を戻すSwap操作を追加 B C swapされたノードは一 度入力列に戻される B B C B A A A A A A B shift shift shift swap right shift right A B C 25 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Eisner法 動的計画法により大域最適を探す CKYアルゴリズムと同種の方法を使う –基本的に非交差しか扱えない 局所的な素性しか扱えない –“局所”の度合いで複雑度が異なる(cf. 高階Eisner) 26 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo おさらい:CKYアルゴリズム 句構造文法の構文解析手法 下図のような木構造を出力する 動的計画法で計算量はO(n3) 非終端記号 は省略 1:今日, 2:私は 3:NLPの 4:発表を 5:した。 27 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo チョムスキー標準形 (Chomsky Normal Form, CNF) 書き換え規則が2分割か,単語生成しかない文法 or w 一般的には非終端記号( )にはラベルが振られてい る CKYアルゴリズムは文法がCNFである必要がある 28 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo CKYアルゴリズムの定式化 sequenceに対するViterbiアルゴリズムのtree版 局所的なスコアの総和が最大になるtreeを選択する treeの候補は指数なので,全列挙はできない 各三角にスコアが割 り振られ,その総和 が全体のスコア 1:今日, 2:私は 3:NLPの 4:発表を 5:した。 29 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo CKYアルゴリズムを再帰で理解する(1/3) (1-5) 3番目から5番目の単語が (1-1) (2-5) 末端に来ることを示している (3-5) (2-2) (3-4) (5-5) (3-3) (4-4) 1:今日, 2:私は 3:NLPの 4:発表を 5:した。 – (s, e) (s, k) + (k+1, e) 領域に関して,以下のルールが成り立つ – (s, s) 終端 左側の木と右側の木の境目を 再帰的に決定している 30 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo CKYアルゴリズムを再帰で理解する(2/3) (s - e) (s - k) (k+1 - e) s ・・・ k k+1 ・・・ e sからeの領域をkとk+1で分けたときの最大スコアは,sからkの領域の最大 kをsからe-1まで変化させて最大値をとるkを探す と,k+1からeの領域の最大と,三角の局所スコアの和 sからk,k+1からeの領域も再帰的に最大の構造を探す 31 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo CKYアルゴリズムを再帰で理解する(3/3) 領域(s,e)の最大スコア f(s, e) は –f(s, e) = maxk {S(s,k,e) + f(s, k) + f(k+1, e)} –S(s,k,e) は (s,e) (s,k) (k+1,e) という規則に対す る局所的なスコア 領域(s,s)のスコア f(s,s) は –f(s, s)=0 上記再帰式をメモ化すればOK 32 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受けと句構造の比較 なんとなく形が似ている気もする・・・ 今日, 私は NLPの 発表を した。 今日, 私は NLPの 発表を した。 33 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 係り受けを句構造風に解釈するには? 関連の薄そうな2つは,以下の記号を導入すると・・・ ルール w This is a pen 句構造と同種の手法 outside)が使える気が (CKYやinside- してくる! のところに係り受け 34 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Eisner法を数式で書いてみる Complete span Incomplete span C(s, e) = maxk(C(s, k) + I(k, e)) I(s, e) = S(s, e) + maxk(C(k, s) + C(k+1, e)) –ただし,S(s, e)はsがeに係ることに対するスコア 上記再帰式をメモ化すればOK 35 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Eisner法を擬似コードで書いてみる function comp(s, e): if s = e: return 0 elif (s, e) in comp_cache: return comp_cache[(s, e)] else: m = -INF for k in {s, …, e}: m = max(m, comp(s, k) + incomp(s, k)) return comp_cache[(s, e)] = m function incomp(s, e): if (s, e) in incomp_cache: return incomp_cache[(s, e)] else: m = -INF for k in {s, …, e-1}: m = max(m, S(s, e) + comp(k, s) + comp(k+1, e)) return incomp_cache[(s, e)] = m 36 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Nベスト出力 [Jimenez&Marzal2000] スコアの高い上位N件を出力したい 元の論文はPCFGをN-best化する方法 37 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo ソート済み配列の足し算 ソート済み配列の足 9 6 4 2 し算をソートする priority queueを使 10 19 19 16 16 14 14 12 12 えば簡単に実現でき 8 17 17 14 14 12 12 10 る 4 13 13 10 10 8 6 1 10 7 5 3 38 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo CKYもEisnerも足し算の塊 (1/2) C(s, e) = maxk(C(s, k) + I(k, e)) 1番目の候補を探す C(0, 1)の1番目, これがbest 1 I(1, 4)の1番目の意 C(0, 4) 1, 1 1, 1 1, 1 1, 1 + + + + k=1 k=2 k=3 k=4 1 1 C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4) C(0,4) I(4,4) 再帰的に計算する 39 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo CKYもEisnerも足し算の塊 (2/2) C(s, e) = maxk(C(s, k) + I(k, e)) 隣接候補を追加 2番目の候補を探す 2 1, 2 これが2番 C(0, 4) 1, 1 2, 1 1, 1 1, 1 + + + + k=1 k=2 k=3 k=4 1 2 C(0,1) I(1,4) C(0,2) I(2,4) C(0,3) I(3,4) C(0,4) I(4,4) 再帰的に計算する(I(2,4)は2番目を探す) 40 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo Higher order Eisner 以上は 1st order Eisner と呼ばれる –1st order とは,係り元と係り先しか見ない より多くの依存関係を同時に見たくなる –2nd order •同じ係り先の兄弟 –3rd order •祖父と親と子,あるいは親と子の兄弟 –いずれも多項式時間で実現できる 41 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 2nd order Eisner 兄弟に関する制約や素性を追加したい –例えば同じ格助詞を持つ文節は兄弟にしたくない 以下のノードを追加すると解決する 1st order 2nd order 42 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 2nd order Eisnerを直感的に理解する 木をたどる操作には2種類ある 1. 子ノードに遷移する 2. 兄弟ノードを遷移する 1st order は,いわば2を1で無理やり表現したため, 2nd order では2を直接表現しているため,兄弟間 兄弟間の素性を設計できない の素性を設計できる 1 した。 今日, 私は 発表を 2 NLPの 43 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 2nd order Eisnerを絵で理解する 2nd order 雰囲気としてはcar,cdrのような感じ (((w1, w2), w3), w4) w1 w2 w3 w4 1st order 兄弟関係を直接表現するノードがない w1 w2 w3 w4 44 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 3rd order Eisner [Koo&Colins2010] 親子だけではなくて孫も同時に見たい –uni-gramからbi-gramにする感覚 親子と同時に子の兄弟も見たい –親と兄弟の3項関係 祖父を見ている 親と兄弟を同時に 見ている T. Koo and M. Collins, Efficient third-order dependency parsers. ACL 2010. 45 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 1st, 2nd, 3rd の比較 1st order 親子のみ 2nd order 兄弟を追加 3rd order 祖父,親,孫を追加 親,兄弟を追加 表現できる素性がだんだん増えている 46 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 他の手法 簡単な紹介だけ MST ILP 47 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo MSTパーザー 最大全域木(Maximum Spanning Tree)アルゴリズ ムを使う 詳しく紹介しないが,現在主流の手法の一つ 48 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo MSTパーザーの特徴 [McDonald05] 最大全域木(Maximum Spanning Tree)アルゴリズムを使う 利点 –大域最適である –解析時の計算量がO(n2)と意外と小さい –交差を自然に解いてくれる 欠点 –直接の係り関係しか使えない –2nd order以上になるとNP hard This is a pen 49 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo ILP (Integer Linear Programming)パー ザーの特徴 [Riedel&Clarke06, Martins+09] MSTパーザーのスコアを線形の目的関数にする 「木である」条件をがんばって整数の線形式で書き表す 線形式の制約による,線形目的関数の最大化問題 線形整数計画問題で解ける! 線形式で書けさえすれば,大域的なスコアを目的関数 に入れたり,大域的な制約を入れられる 50 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 目次 係り受け解析とは何か –用語の説明 –タスクの説明 手法の紹介 –Shift-reduce法 –Eisner法 –その他の手法 まとめ 51 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo おさらい 係り受け解析とは? –単語の係り先を当てる問題 –構造を当てる問題なので,候補がたくさんあってタイヘン 主な手法は2つの派閥 –局所最適だが大域素性のTransition-based –大域最適だが局所素性のGraph-based 2つの手法を紹介した –Shift-Reduce法はスタックを使った方法 –Eisner法は動的計画法を使った方法 52 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 使ってみよう –KNP (@黒橋研) 日本語 • http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/knp.html • ルールベース –CaboCha (工藤さん) • http://chasen.org/~taku/software/cabocha/ • Cascaded Chunking Model –MSTParser (R. McDonald) 英語 • http://sourceforge.net/projects/mstparser/ • MST, Eisner –MaltParser (J. Nivre) • http://maltparser.org/ • Shift-Reduce 53 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo ご清聴ありがとうございました 54 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 参考文献 Shift-Reduce – [Nivre03] J. Nivre, An Efficient Algorithm for Projective Dependency Parsing. IWPT 003. – [Yamada&Matsumoto03] H. Yamada and Y. Matsumoto, Statistical Dependency Analysis with Support Vector Machines. IWPT 2003. – [Nivre04] J. Nivre, Incrementality in Deterministic Dependency Parsing. Workshop on Incremental Parsing 2004. – [Nivre09] J. Nivre, Non-Projective Dependency Parsing in Expected Linear Time. ACL-IJCNLP 2009. Eisner – [Eisner96] J. M. Eisner, Three New Probabilistic Models for Dependency Parsing: An Exploration. COLING 1996. – [Jimenez&Marzal01] V. Jimenez and A. Marzel, Computation of the N best parse trees for weighted and stochastic context-free grammars. Advances in Pattern Recognition. – [Koo&Colins10] T. Koo and M. Collins, Efficient third-order dependency parsers. ACL 2010. 55 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation
  • IBM Research - Tokyo 参考文献 MST –[McDonald+05] R. McDonald, F. Pereira, K. Ribarov and J. Hajic, Non-projective Dependency Parsing using Spanning Tree Algorithms. f HLT-EMNLP 2005. ILP –[Riedel&Clarke06] S. Riedel and J. Clarke, Incremental Integer Linear Programming for Non-projective Dependency Parsing. EMNLP 2006. –[Martins et.al.09] A. F. T. Martins, N. A. Smith and E. P. Xing, Concise Integer Linear Programming Formulations for Dependency Parsing. ACL-IJCNLP 2009. その他 –[工藤&松本04] 工藤 拓, 松本 裕治. 相対的な係りやすさを考慮した日本 語係り受け解析モデル SIGNL-162, 2004. 相対的な りやすさを考慮した日本 考慮した 語係り 解析モデル モデル. 56 2010/11/07 自然言語処理勉強会@東京 第3回 © 2010 IBM Corporation