SlideShare a Scribd company logo
Compact, Efficient and
Unlimited Capacity:
Language Modeling with
Compressed SuffixTrees
Ehsan Shareghi, Matthias Petri,Gholamreza Haffari and
Trevor Cohn
2015/10/24 EMNLP読み会
自己紹介(jnishi)
• 西鳥羽 二郎(にしとば じろう)
• アルゴリズム
• 情報検索
• 機械学習
• 自然言語処理
• 音声認識
• 所属: 株式会社Preferred Infrastructure
• エンジニア
• プリセールス
• サポート
N-gram言語モデル
• 言語モデル: 単語列や文字列の言語らしさを表す確率モデル
• N-gram言語モデル: 直前のN-1個単語が与えられた時に、その次に単語
xが連なる確率を直前N-1個の条件付き確率で表す
• 「EMNLP読み会で発表した」vs.「EMNLP読み会で絶叫した」
• P(発表した | EMNLP, 読み会, で) > P(絶叫した | EMNLP, 読み会, で)
• 論文中ではm-gramと表記されていますが、(日本では?) N-gramの方が
馴染み深いと思うので今後N-gramと表記します
N-gram言語モデルの課題
• N-gram言語モデルを効率的に計算できるNの値は小さい
• N-gramの計算をするためにはコーパスの中の単語の出現頻度を計算する必要が
ある
• 毎回文書中で出現頻度を計算するのは時間がかかるため、予め単語の組み合わ
せの出現頻度をインデックスとして保持している
• EMNLP -> 10
• 読み -> 1000
• EMNLP 読み -> 4
• …
• そのため、Nの値に対して指数的にインデックスが大きくなる
Compact, Efficient and Unlimited Capacity:
Language Modeling with Compressed SuffixTrees
• 素敵なN-gram 言語モデル!
• Compact : Compressedなのでインデックスサイズ小!
• Efficient : SuffixTreeなので速い!
• Unlimited Capacity: 10-gramや∞-gramでも大丈夫!
• そう、 Compressed SuffixTrees(CST)ならね!!
SuffixTree(ST)
• 文書中に出てくる全てのsuffix(接尾辞)を格納したパトリシア木
11
$
a bra
cadabra$ dabra$
4 6
10 3 5 8 1 9 2
$
bra
ra
$ cadabra$ $ cadabra$
dabra$
cadabra$
7 0
$ cadabra
abracadabra$のST
葉には接尾辞のpositionを入れる
枝には文字を割り当てる
子が一つしか無い頂点は集約し
て枝に複数の文字を割り当てる
SuffixTree(ST)上の検索
• 文書中に出てくる全てのsuffix(接尾辞)を格納したパトリシア木
11
$
a bra
cadabra$ dabra$
4 6
10 3 5 8 1 9 2
$
bra
ra
$ cadabra$ $ cadabra$
dabra$
cadabra$
7 0
$ cadabra
abracadabra$のST
検索するときはルートか
ら葉までたどる
bra はインデックス8に存在
SuffixTree(ST)上の検索
• 文書中に出てくる全てのsuffix(接尾辞)を格納したパトリシア木
11
$
a bra
cadabra$ dabra$
4 6
10 3 5 8 1 9 2
$
bra
ra
$ cadabra$ $ cadabra$
dabra$
cadabra$
7 0
$ cadabra
abracadabra$のST
検索するときはルートか
ら葉までたどる
bra はインデックス1にも存在
SuffixTree(ST)の性質
• SuffixTree(ST)は長さnの文字列に対してO(n)のインデックスサイズと
なる
• 節点の数は高々n個
• 枝に付随する文字列は(開始位置, 長さ)の組で保持する
• 元の文字列とパトリシア木と上記インデックスで実現できる
• SuffixTree(ST)は長さnの文字列に対してO(n)の時間及び空間計算量で
求められる
• SuffixTree(ST)はFM-Indexという形式のデータ構造を用いて小さいイン
デックスにより実現することができる(Compressed SuffixTree, ST)
Kneser Ney 言語モデル
• 今回はInterpolated Kneser-Ney言語モデルを用いる
(N-1)個の単語列の出現数
Nにより固定のパラメー
タ(前処理で求める)
(N-1)個の単語列の後に続く単
語の種類数 次スライドで定義
Kneser Ney 言語モデル(2)
(k-1)個の単語列の前に
出現する単語の種類数
kにより固定のパラメー
タ(前処理で求める)
(k-1)個の単語列の前後に
出現する単語の種類数
単語列を1つ削って再帰
Kneser Ney 言語モデルの計算に必要な操作
:単語列の出現回数
:パターンαの前に出現する単語の種類数
:パターンαの後に出現する単語の種類数
:パターンαの前後に出現する単語の種類数
言語モデルの計算に用いるCST
• 言語モデルの計算をするため
に以下のCSTを構築する
• CST
• テキストT
• アルファベットΣ = {テキスト中
に出現する単語}
• reversed CST
• テキストTの単語の出現順番を
逆にしたreversed テキスト
• アルファベットΣ = {テキスト中
に出現する単語}
Σ={the, old, night, keeper, keeps, keep, in, town, #}
T =“#the old night keeper keeps the keep in the town# the night keeper keeps the keep in the night#$”
CSTを用いた計算
1. CST上で単語列を辿る
:単語列の出現回数
CSTを用いた計算
1. CST上で単語列を辿る
2. 単語列を表す頂点または枝まで
辿ったら、それ以下の歯の数を
探索して数え上げる
:単語列の出現回数
CSTを用いた計算
1. CST上で単語列を辿る
:パターンαの後に出現する単語の種類数
CSTを用いた計算
1. CST上で単語列を辿る
2. その頂点の子の数を取得する
:パターンαの後に出現する単語の種類数
CSTを用いた計算
1. reverse CST上でパターンαの逆順に辿る
2. その頂点の子の数を取得する
:パターンαの前に出現する単語の種類数
CSTを用いた計算
1. CST上でパターンαを辿る
2. その頂点の子Sを列挙する
3. reverse CST上でパターン
{αs | s ∈S}を辿る
4. 全てのパターンの子の数
を足し合わせる
:パターンαの前後に出現する単語の種類数
実験: perplexity
ヨーロッパ系言語でN-gramの
perplexityを計算
5-gramまでは劇的に小さくな
るが、それ以降は余り変化し
ない…
実験: インデックス構築性能比較
提案アルゴリズムとSRILMと
でインデックス構築の時間計
算量と空間計算量を比較
提案手法はSRIMLの
3-gramから4-gramの間くらい
ただし、提案手法はNによら
ないのでNが大きい場合は圧
倒的に優位
実験: クエリ性能
提案アルゴリズムとSRILMと
でN-gramを計算するときの時
間計算量と空間計算量を比較
提案手法はSRIMLと比較して圧
倒的に時間がかかっているが、
提案手法はNの値によらない
(N=2の場合は除く)
考察
• SRIMLではインデックスサイズの爆発が原因で計算できなかった大き
いNのN-gramを計算することができるようになった
• 一方でInterpolated Kneser-NeyではNを増やしてもperplexityは改善しな
かったので、他のスムージングを試してみたい(our future work !)
補足
• 今回説明した手法はCSTを2個必要としたが、FM-Indexを用いれば一つ
で済む
• 空間計算量は半分になる
• 時間計算量はFM-Index特有の処理を用いれば早くなる
実験: FM-Index版による高速化
FM-Index版だと
2〜3倍程度高速化している
まとめ
• 素敵なN-gram 言語モデル!
• Compact : Compressedなのでインデックスサイズ小!
• Efficient : SuffixTreeなので速い!
• Unlimited Capacity: 10-gramや∞-gramでも大丈夫!
• そう、 Compressed SuffixTrees(CST)ならね!!
3,4 gramと同じ位
Nが大きければね
KNではN=5で十分な
気はするけどね

More Related Content

What's hot

ピーFIの研究開発現場
ピーFIの研究開発現場ピーFIの研究開発現場
ピーFIの研究開発現場
Yuya Unno
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
Yuya Unno
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
Yuya Unno
 
子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN 子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN
Chiba Institute of Technology
 
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)Yuya Unno
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
Yuya Unno
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
Yuya Unno
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
 
NLP2017 NMT Tutorial
NLP2017 NMT TutorialNLP2017 NMT Tutorial
NLP2017 NMT Tutorial
Toshiaki Nakazawa
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
Yuya Unno
 
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
Facebookの人工知能アルゴリズム「memory networks」について調べてみたFacebookの人工知能アルゴリズム「memory networks」について調べてみた
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
株式会社メタップスホールディングス
 
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning AlgorithmICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning AlgorithmYuya Unno
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理
Preferred Networks
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」
Yuya Unno
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築
Tomoyuki Kajiwara
 

What's hot (17)

ピーFIの研究開発現場
ピーFIの研究開発現場ピーFIの研究開発現場
ピーFIの研究開発現場
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション深層学習による機械とのコミュニケーション
深層学習による機械とのコミュニケーション
 
子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN 子どもの言語獲得のモデル化とNN Language ModelsNN
子どもの言語獲得のモデル化とNN Language ModelsNN
 
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
 
子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得子供の言語獲得と機械の言語獲得
子供の言語獲得と機械の言語獲得
 
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
 
深層学習時代の自然言語処理
深層学習時代の自然言語処理深層学習時代の自然言語処理
深層学習時代の自然言語処理
 
NLP2017 NMT Tutorial
NLP2017 NMT TutorialNLP2017 NMT Tutorial
NLP2017 NMT Tutorial
 
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
 
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
Facebookの人工知能アルゴリズム「memory networks」について調べてみたFacebookの人工知能アルゴリズム「memory networks」について調べてみた
Facebookの人工知能アルゴリズム「memory networks」について調べてみた
 
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning AlgorithmICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
ICML2013読み会 ELLA: An Efficient Lifelong Learning Algorithm
 
大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理大規模データ時代に求められる自然言語処理
大規模データ時代に求められる自然言語処理
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」NIP2015読み会「End-To-End Memory Networks」
NIP2015読み会「End-To-End Memory Networks」
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」 [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
 
日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築日本語の語彙平易化システムおよび評価セットの構築
日本語の語彙平易化システムおよび評価セットの構築
 

Viewers also liked

[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
Shuyo Nakatani
 
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional RepresentationsLearning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional Representations
Takanori Nakai
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
Yo Ehara
 
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
裕樹 奥田
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Shuyo Nakatani
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
nishio
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
Shuyo Nakatani
 
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]
Yuta Kikuchi
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
Shuyo Nakatani
 

Viewers also liked (10)

[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...
 
Learning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional RepresentationsLearning Better Embeddings for Rare Words Using Distributional Representations
Learning Better Embeddings for Rare Words Using Distributional Representations
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 
Humor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor ExtractionHumor Recognition and Humor Anchor Extraction
Humor Recognition and Humor Anchor Extraction
 
Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)Memory Networks (End-to-End Memory Networks の Chainer 実装)
Memory Networks (End-to-End Memory Networks の Chainer 実装)
 
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
 
強化学習その1
強化学習その1強化学習その1
強化学習その1
 
星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章星野「調査観察データの統計科学」第3章
星野「調査観察データの統計科学」第3章
 
A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]A Neural Attention Model for Sentence Summarization [Rush+2015]
A Neural Attention Model for Sentence Summarization [Rush+2015]
 
星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章星野「調査観察データの統計科学」第1&2章
星野「調査観察データの統計科学」第1&2章
 

Similar to Emnlp読み会資料

ナイーブベイズによる言語判定
ナイーブベイズによる言語判定ナイーブベイズによる言語判定
ナイーブベイズによる言語判定Shuyo Nakatani
 
Pylm public
Pylm publicPylm public
Pylm public
Kei Uchiumi
 
[DL輪読会]音声言語病理学における機械学習とDNN
[DL輪読会]音声言語病理学における機械学習とDNN[DL輪読会]音声言語病理学における機械学習とDNN
[DL輪読会]音声言語病理学における機械学習とDNN
Deep Learning JP
 
Ism npblm-20120315
Ism npblm-20120315Ism npblm-20120315
Ism npblm-20120315隆浩 安
 
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションantibayesian 俺がS式だ
 
Jacet2014ykondo_final
Jacet2014ykondo_finalJacet2014ykondo_final
Jacet2014ykondo_final
早稲田大学
 
RNNLM
RNNLMRNNLM
日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価
Tomoyuki Kajiwara
 

Similar to Emnlp読み会資料 (8)

ナイーブベイズによる言語判定
ナイーブベイズによる言語判定ナイーブベイズによる言語判定
ナイーブベイズによる言語判定
 
Pylm public
Pylm publicPylm public
Pylm public
 
[DL輪読会]音声言語病理学における機械学習とDNN
[DL輪読会]音声言語病理学における機械学習とDNN[DL輪読会]音声言語病理学における機械学習とDNN
[DL輪読会]音声言語病理学における機械学習とDNN
 
Ism npblm-20120315
Ism npblm-20120315Ism npblm-20120315
Ism npblm-20120315
 
さくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッションさくさくテキストマイニング入門セッション
さくさくテキストマイニング入門セッション
 
Jacet2014ykondo_final
Jacet2014ykondo_finalJacet2014ykondo_final
Jacet2014ykondo_final
 
RNNLM
RNNLMRNNLM
RNNLM
 
日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価日本語の語彙的換言知識の質的評価
日本語の語彙的換言知識の質的評価
 

More from Jiro Nishitoba

20190509 gnn public
20190509 gnn public20190509 gnn public
20190509 gnn public
Jiro Nishitoba
 
Retrieva seminar jelinek_20180822
Retrieva seminar jelinek_20180822Retrieva seminar jelinek_20180822
Retrieva seminar jelinek_20180822
Jiro Nishitoba
 
20180609 chainer meetup_es_pnet
20180609 chainer meetup_es_pnet20180609 chainer meetup_es_pnet
20180609 chainer meetup_es_pnet
Jiro Nishitoba
 
全体セミナー20180124 final
全体セミナー20180124 final全体セミナー20180124 final
全体セミナー20180124 final
Jiro Nishitoba
 
深層学習による自然言語処理勉強会2章前半
深層学習による自然言語処理勉強会2章前半深層学習による自然言語処理勉強会2章前半
深層学習による自然言語処理勉強会2章前半
Jiro Nishitoba
 
深層学習による自然言語処理勉強会3章前半
深層学習による自然言語処理勉強会3章前半深層学習による自然言語処理勉強会3章前半
深層学習による自然言語処理勉強会3章前半
Jiro Nishitoba
 
全体セミナー20170629
全体セミナー20170629全体セミナー20170629
全体セミナー20170629
Jiro Nishitoba
 
Hessian free
Hessian freeHessian free
Hessian free
Jiro Nishitoba
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なこと
Jiro Nishitoba
 
Icml読み会 deep speech2
Icml読み会 deep speech2Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba
 
全体セミナーWfst
全体セミナーWfst全体セミナーWfst
全体セミナーWfst
Jiro Nishitoba
 
Chainer meetup20151014
Chainer meetup20151014Chainer meetup20151014
Chainer meetup20151014
Jiro Nishitoba
 

More from Jiro Nishitoba (12)

20190509 gnn public
20190509 gnn public20190509 gnn public
20190509 gnn public
 
Retrieva seminar jelinek_20180822
Retrieva seminar jelinek_20180822Retrieva seminar jelinek_20180822
Retrieva seminar jelinek_20180822
 
20180609 chainer meetup_es_pnet
20180609 chainer meetup_es_pnet20180609 chainer meetup_es_pnet
20180609 chainer meetup_es_pnet
 
全体セミナー20180124 final
全体セミナー20180124 final全体セミナー20180124 final
全体セミナー20180124 final
 
深層学習による自然言語処理勉強会2章前半
深層学習による自然言語処理勉強会2章前半深層学習による自然言語処理勉強会2章前半
深層学習による自然言語処理勉強会2章前半
 
深層学習による自然言語処理勉強会3章前半
深層学習による自然言語処理勉強会3章前半深層学習による自然言語処理勉強会3章前半
深層学習による自然言語処理勉強会3章前半
 
全体セミナー20170629
全体セミナー20170629全体セミナー20170629
全体セミナー20170629
 
Hessian free
Hessian freeHessian free
Hessian free
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なこと
 
Icml読み会 deep speech2
Icml読み会 deep speech2Icml読み会 deep speech2
Icml読み会 deep speech2
 
全体セミナーWfst
全体セミナーWfst全体セミナーWfst
全体セミナーWfst
 
Chainer meetup20151014
Chainer meetup20151014Chainer meetup20151014
Chainer meetup20151014
 

Emnlp読み会資料