現在のDNNにおける未解決問題

現在のDNNの
未解決問題
岡野原  ⼤大輔
hillbig@preferred.jp
Preferred  Networks,  Inc.
2016/5/20 脳型計算雑談会
DNNの未解決問題
l  現在のDNNは実⽤用的に成功しているが、原理理を理理解できていないため、なぜ
ここまでうまくいくのか(また、うまくいかないのか)わかっていない
l  ここでは、現在のDNNの代表的な未解決問題を紹介したい
l  すでに過去に答えがでている問題かもしれず、みなさまの⼒力力をお借りしたい
2
現在のDNNを1枚でおさらい
l  活性化関数には区分線形関数を使い、伝搬は減衰/発散もしなくなった
–  例例:Relu  f(x)  =  max(0,  x)            これはsoftplus  log(1+exp(x))のhard版
l  最適化にはRMSPropやAdamなどHessianのオンライン推定版を使う
l  Batch正規化層で、各層の⼊入⼒力力は常に平均0,  分散1に正規化し学習を容易易に
l  ResNet:  f(x)  =  x  +  h(x)  を使うことで  1000層を超えても学習可能に
l  変分ベイズとの融合で、⾮非線形の⽣生成モデルの学習も容易易に
–  特に潜在変数が連続変数の場合は変数変換トリックで効率率率よく学習可能
–  半教師あり学習、1ショット学習が可能に
l  強化学習との融合で、⽣生の⼊入⼒力力からの評価関数や⾏行行動選択が可能に
l  アテンションの仕組みによって、⼊入出⼒力力の⼀一部を動的にフォーカスできる
l  GPUを利利⽤用し,数⼗十Tflops程度度の計算リソースで学習、パラメータ数は数億
3
1.  ⼤大きなNNの学習はなぜ⼀一様に成功するか
l  ⼤大きなNN(FeedForward)の場合、どのような初期値でも、局所最適解で終
了了しても学習結果はみな同程度度に優れていることが実験結果からわかっている
–  無数の局所解があるにもかかわらず、それらの局所解は⾒見見つけるのが簡単であり、
かつ、それらのテストエラーは殆ど同じである
l  特に次の三つの現象がみられる
1.  ⼤大きなネットワークでは,ほとんどの局所解のテストエラーが同じである
2.  悪い局所解を⾒見見つける確率率率は⼩小さいネットワークだと⼤大きく,サイズが⼤大き
くなるに従って、急速に⼩小さくなる
3.  ⼤大域最適解を⾒見見つけるのは不不可能なほどに難しいが、⾒見見つけられたとしても
学習データに過適合しており、テストエラーは⼤大きい
なぜ、このようなことが起きるのか?
4
スピンモデルによるNNの学習問題の解析
l  H層の総結合層,活性化関数にRelu:  σ(x)  =  max(0,  x)からなるNNを考える
但し,                                                                        は正規化項
l  これは次のように書きなおすことができる
但し,iはi番⽬目の⼊入⼒力力,jは⼊入⼒力力から出⼒力力までの1本のパスに対応し,
Aはそのパス上でreluが全てactiveなら1,そうでないなら0である関数
5
i	
Reluがactive	
Reluがinactive
l  さきほどの関数の絶対値損失関数,またはヒンジ損失関数は、
様々な仮定(後述)を加えると次の球形スピングラスモデルとみなせる
  
但し,                                          
この球形スピングラスモデルについては様々な性質がわかっている
特に,その極値についての性質について分析できる
  k  :  極値のヘシアンについて、負の固有値がいくつあるか
    負の固有値=下向きに曲がっている⽅方向
  k=0  極⼩小値,  k>0  鞍点    
6
極値の分布
7
ΛEinf以上には、
kが⼩小さい極値は
ほとんど出現しない
(殆どが鞍点)
→悪い極⼩小値は
  ⾒見見つからない
また,[ΛE0,  ΛEinf]
の⼤大きい⽅方にはkが
⼤大きいのが多く、
⼩小さい⽅方はkが⼩小さい
のが多い
→極⼩小値はみんな
  最⼩小値の近くで
  ⾒見見つかる
8
スピンモデルによるNNの解析
l  実験結果とあうが、⾮非現実的な仮定がああり、これらの仮定を除けるか、ま
たはデータやモデルがその仮定を満たしているといえるかが問題となる
l  特に、「活性は⼊入⼒力力に依存せず独⽴立立である」「各パスの⼊入⼒力力は独⽴立立である」
という仮定が問題
l  質問より
  この条件を満たすようにNNを作れれば学習がしやすくなるか
  →  そうである。⼀一⽅方で今のNNが既にこの条件をみたしている可能性もある
      LDPCが短いサイクルを含まないような⾏行行列列を使っているのと同様にNN
      の接続もこの条件を満たすように⼯工学的に設計できないか
  ⼤大きいというのはどういう意味か
  →  深さについては2層以上であればこれが成り⽴立立つ。重要なのは各層の
      平均のユニット数  100を超えたあたりからこの現象がおこる
  
9
2.  敵対的⽣生成ネットワーク(GAN)の解析  
l  GANは次の⼆二つのネットワークを競合させて学習する
G(z)  :  ⽣生成ネットワーク    zからxを⽣生成する決定的なネットワーク
        はじめにp(z)に従ってzを⽣生成し,つぎにx=G(z)を求める
D(x)  :  識識別ネットワーク    xが真のデータ由来なのか、⽣生成由来かを識識別
この時、次の最適化問題をG,  Dそれぞれについて解く
GはDに⾒見見破られないようにより真のデータに似るように⽣生成し、
Dはデータ由来かG由来かを識識別できるように成⻑⾧長する
この最適化問題の最適解は,pG=pdataであり、またGとDを交互に学習する⽅方法
で最適解に到達することが知られている
10
GANの学習が⼀一⽬目でわかる素晴らしいデモ
l  http://www.inference.vc/an-‐‑‒alternative-‐‑‒update-‐‑‒rule-‐‑‒for-‐‑‒generative-‐‑‒
adversarial-‐‑‒networks/
l  ついでに他のデモ集
http://arogozhnikov.github.io/2016/04/28/demonstrations-‐‑‒for-‐‑‒ml-‐‑‒
courses.html
11
GANによる⽣生成例例
https://github.com/mattya/chainer-‐‑‒DCGAN
学習開始30分後
12
2時間後
13
1⽇日後
14
15
GANの特徴
l  分割関数やMCMCを使うことなく,⽣生成モデルの学習が可能
–  G(x)はD(x)の勾配情報を利利⽤用して⽣生成モデルを学習できる
これは強化学習におけるActor/Criticの関係と同様
l  ⽣生成モデルは最初にzをp(z)に従って⽣生成し、次に決定的な関数でxを⽣生成する
–  多くのNNを使った⽣生成モデルは勾配が求められるように、⽣生成の直前でガウシア
ンを使うが、これがぼやけた画像⽣生成の原因になっていた
l  ⽣生成モデル、識識別モデルに事前知識識を埋め込める
–  識識別モデルにCNNを使った場合、移動普遍性が埋め込められるが、
最終的な⽣生成モデルにどのような影響があるか分からない
l  GANはMCMCと違って効率率率よく⽣生成ができるだけでなく(伝承サンプリ
ング)、(⼈人からみて)⾮非常に⾼高品質なデータを⽣生成できる
16
GANは何をしていることになるのか?
l  GANのGについてのオリジナルの更更新式は次の通りである
l  しかし、log(1  –  x)はxが⼩小さい場合、勾配が⼩小さいので代わりに次を使う
l  この⼆二つの式を組み合わせた
  これはKL[Q||P]の最⼩小化をしていることに対応する
      Q  :  ⽣生成モデルの分布,  P:経験分布
17
GANの問題
l  途中でDかGどちらかが強くなりすぎて学習に失敗する
–  どういうばあいに、強くなりすぎるかについてわかっていない
l  学習がどの程度度進んでいるのかが分からない
–  単⼀一の⽬目的関数がなく、現状、結果の確認は⽬目視
l  D(x)はデータ⼀一つに対して分類しているだけなので、例例えばGが同じ画像ば
かりを⽣生成していても分からない
–  本当はGが⽣生成するデータ集合について⽐比較しないといけない
l  上と同様の問題で,Gはデータのいくつかのモードを⽣生成しがちになり、残り
のモードを⽣生成しなくなる
–  現状、初期値が重要であり、その後は完全にgreedyに進む
l  GとDの設計についての基本指針がない
18
質問から
l  最適解がpdataとしたらなぜそれを直接使わないのか
–  GANで学習したいのはpdataではなく、それをなました未知の真の分布p*、GANは
最適化を途中で⽌止めることで(または極⼩小解に到達して)、p*を推定する
–  なので、本当はGANの学習ダイナミクスを解析して、それがどのような正則化を
達成しているのかを調べたい
(Early  StoppingがL2正則化に対応しているのと同様に)
l  GANが⾼高品質なデータを⽣生成できるのはなぜか
–  ノイズは最初にしか⼊入らず、あとは決定的な関数を使っているため、従来は勾配が
もとめられるようにノイズが最後にも⼊入ってぼやけていた。
19
3.  可変⻑⾧長情報の埋め込み
l  RNNを使って可変⻑⾧長-‐‑‒>可変⻑⾧長という情報の変換が可能となった
⼊入⼒力力系列列  x1  x2  x3  …  xnから出⼒力力系列列  y1  y2  …  ym  への変換を考える
l  Enc(x,  h)  :  符号化器
  現在の⼊入⼒力力xiと前の内部状態hiを受け取って,次の内部状態hi+1を出⼒力力
Dec(y,  h)  :  復復号化器
  直前の出⼒力力yiと前の内部状態hiを受け取って,次の内部状態hi+1を出⼒力力
l  この変換は  符号化器が  x1x2…xnから固定⻑⾧長の内部状態hn+1へ変換し
復復号化器がhn+1からy1  y2  …  ym  を出⼒力力しているようにみなせる
20
未解決問題
l  可変⻑⾧長-‐‑‒>固定⻑⾧長の情報の埋め込みはどのように実現されているのか?
–  例例えば、⼊入⼒力力⽂文から構⽂文解析する例例では、スタックの機能は実現されている
–  再帰を含む⽂文などはどのように埋め込まれているのか?もしくは埋め込まれていな
いのか
l  固定⻑⾧長  -‐‑‒>  可変⻑⾧長の情報の展開はどのように実現されているのか?
l  この場合、短期記憶の容量量は内部表現のhn+1にバウンドされている
–  ⼀一種のAutoEncoderの正則化のような役割を果たしているかもしれない
l  短期記憶の容量量をあげるにはどうすればよいか?
–  Attentionを使って⼊入⼒力力から直接思い出す(既存研究多数)
l  重みを⼀一次的に変えることで記憶することも可能
–  連想記憶の実現
–  Hintonが提唱している[2015]が,実現はまだと思われる(過去に既にあるか?)
21
4.  Ladder  Networkの解析
22
•  半教師あり学習でLadder  Networkが現在最⾼高精度度を達成している
•  その後,ほぼ同じ精度度を階層的推論論ネットワークを使ったモデルも達成
•  Ladder  Networkはノイズ除去オートエンコーダー(DenoiseAE)と
教師あり学習を組みあわせる
各層毎のDenoiseAEによ
る教師なし学習
教師あり学習
各層毎にノイズを加える
横のつながりがあ
り、AEは詳細を説
明する必要はない
Ladder  Networkの謎
l  従来のニューラルネットワークとは違うアイディアがたくさんある
1.  横のつながり(Lateral  Connection)がある。これが深い層において詳細を
説明する必要がないのに役⽴立立っている
  Denoise  AEは確率率率モデルを学習していることが分かっている
2.  全層にノイズを注⼊入する
3.  各層毎にノイズ除去オートエンコーダーがある
4.  教師なしの学習と教師ありの学習が同時に⾏行行われる
l  横のつながりの意味は何か?横のつながりがない場合に⽐比べて、この情報は
どのような役割を果たしているのか?
l  全層にノイズを⼊入れているのは、多層の確率率率層を含む⽣生成モデルの推論論ネッ
トワークの勾配推定と⼀一緒だと予想している
23
質問から
l  上向きと下向き、そして横のつながりがあるのが脳で⾏行行われている処理理と似
ている
    →  そうだとおもう。おそらく、作った⼈人も脳の処理理は参考にしてデザイン            
  したのでは
24
参考⽂文献
l  ニューラルネットワークの学習の謎
–  “The  loss  surfaces  of  multilayer  networks”,  A.  Choromanska,  et.  al.  
AISTATS2015
–  “Open  Problem:  The  landscape  of  the  loss  surfaces  of  multilayer  networks”,  A.  
Choromanska,  et.  al.  2015  COLT
l  敵対的⽣生成モデル
–  Generative  Adversarial  Networks,  I.  J.  Goodfellow,  et.  al.  2014
–  Unsupervised  Representation  Learning  with  Deep  Convolutional  Generative  
Adversarial  Networks,  A.  Radford,  ICLR  2016
l  系列列から系列列への変換
–  “Sequence  to  sequence  learning  with  neural  networks”,  I.  Sutskever,  2014
–  “Aetherial  Symbols”,  G.  Hinton  2015
25
l  Ladder  Networks
–  “Semi-‐‑‒supervised  Learning  with  Ladder  Networks”,  A.  Rasmus,  et.  al.  2015
–  “Deconstructing  the  Ladder  Network  Archtecture”,  M.  Pezeshki,  2015
26
1 of 26

Recommended

Recurrent Neural Networks by
Recurrent Neural NetworksRecurrent Neural Networks
Recurrent Neural NetworksSeiya Tokui
46.9K views42 slides
自然言語処理のためのDeep Learning by
自然言語処理のためのDeep Learning自然言語処理のためのDeep Learning
自然言語処理のためのDeep LearningYuta Kikuchi
90.6K views143 slides
畳み込みLstm by
畳み込みLstm畳み込みLstm
畳み込みLstmtak9029
20.4K views31 slides
Deep learning勉強会20121214ochi by
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
26.8K views36 slides
Long Short-term Memory by
Long Short-term MemoryLong Short-term Memory
Long Short-term Memorynishio
84.8K views25 slides
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾) by
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)
Learning Deep Architectures for AI (第 3 回 Deep Learning 勉強会資料; 松尾)Ohsawa Goodfellow
62.9K views33 slides

More Related Content

What's hot

Tf勉強会(5) by
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)tak9029
13K views27 slides
Learning to forget continual prediction with lstm by
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstmFujimoto Keisuke
62.9K views28 slides
More modern gpu by
More modern gpuMore modern gpu
More modern gpuPreferred Networks
38.6K views25 slides
Deep Learning基本理論とTensorFlow by
Deep Learning基本理論とTensorFlowDeep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowTadaichiro Nakano
7.4K views66 slides
Deep Learning技術の今 by
Deep Learning技術の今Deep Learning技術の今
Deep Learning技術の今Seiya Tokui
142K views47 slides
GPU上でのNLP向け深層学習の実装について by
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
31.1K views24 slides

What's hot(20)

Tf勉強会(5) by tak9029
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)
tak902913K views
Learning to forget continual prediction with lstm by Fujimoto Keisuke
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
Fujimoto Keisuke62.9K views
Deep Learning基本理論とTensorFlow by Tadaichiro Nakano
Deep Learning基本理論とTensorFlowDeep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
Tadaichiro Nakano7.4K views
Deep Learning技術の今 by Seiya Tokui
Deep Learning技術の今Deep Learning技術の今
Deep Learning技術の今
Seiya Tokui142K views
GPU上でのNLP向け深層学習の実装について by Yuya Unno
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
Yuya Unno31.1K views
Chainerチュートリアル -v1.5向け- ViEW2015 by Ryosuke Okuta
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta114.6K views
[ICLR2016] 採録論文の個人的まとめ by Yusuke Iwasawa
[ICLR2016] 採録論文の個人的まとめ[ICLR2016] 採録論文の個人的まとめ
[ICLR2016] 採録論文の個人的まとめ
Yusuke Iwasawa2.6K views
猫でも分かるVariational AutoEncoder by Sho Tatsuno
猫でも分かるVariational AutoEncoder猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno131.6K views
LSTM (Long short-term memory) 概要 by Kenji Urai
LSTM (Long short-term memory) 概要LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai42.9K views
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」 by Naonori Nagano
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
論文紹介:「End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF」
Naonori Nagano3.4K views
Chainerの使い方と自然言語処理への応用 by Seiya Tokui
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
Seiya Tokui53.2K views
ディープラーニングフレームワーク とChainerの実装 by Ryosuke Okuta
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
Ryosuke Okuta10.1K views
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会 by Shotaro Sano
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano24.4K views
論文紹介 Semi-supervised Learning with Deep Generative Models by Seiya Tokui
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
Seiya Tokui150.6K views
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models by Yusuke Iwasawa
DL Hacks輪読 Semi-supervised Learning with Deep Generative ModelsDL Hacks輪読 Semi-supervised Learning with Deep Generative Models
DL Hacks輪読 Semi-supervised Learning with Deep Generative Models
Yusuke Iwasawa1.7K views
Icml読み会 deep speech2 by Jiro Nishitoba
Icml読み会 deep speech2Icml読み会 deep speech2
Icml読み会 deep speech2
Jiro Nishitoba7.9K views

Viewers also liked

生成モデルの Deep Learning by
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep LearningSeiya Tokui
47.8K views38 slides
IIBMP2016 深層生成モデルによる表現学習 by
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習Preferred Networks
51.4K views68 slides
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3 by
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Daiki Shimada
9.2K views33 slides
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料 by
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料tm_2648
20.9K views25 slides
打倒 PaintsChainer おうちで始めるDCGAN by
打倒 PaintsChainer  おうちで始めるDCGAN打倒 PaintsChainer  おうちで始めるDCGAN
打倒 PaintsChainer おうちで始めるDCGANChoumirai
2.7K views14 slides
GTC 2016 ディープラーニング最新情報 by
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報NVIDIA Japan
4.1K views173 slides

Viewers also liked(20)

生成モデルの Deep Learning by Seiya Tokui
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui47.8K views
IIBMP2016 深層生成モデルによる表現学習 by Preferred Networks
IIBMP2016 深層生成モデルによる表現学習IIBMP2016 深層生成モデルによる表現学習
IIBMP2016 深層生成モデルによる表現学習
Preferred Networks51.4K views
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3 by Daiki Shimada
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Daiki Shimada9.2K views
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料 by tm_2648
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
tm_264820.9K views
打倒 PaintsChainer おうちで始めるDCGAN by Choumirai
打倒 PaintsChainer  おうちで始めるDCGAN打倒 PaintsChainer  おうちで始めるDCGAN
打倒 PaintsChainer おうちで始めるDCGAN
Choumirai2.7K views
GTC 2016 ディープラーニング最新情報 by NVIDIA Japan
GTC 2016 ディープラーニング最新情報GTC 2016 ディープラーニング最新情報
GTC 2016 ディープラーニング最新情報
NVIDIA Japan4.1K views
捗るリコメンドシステムの裏事情(ハッカドール) by mosa siru
捗るリコメンドシステムの裏事情(ハッカドール)捗るリコメンドシステムの裏事情(ハッカドール)
捗るリコメンドシステムの裏事情(ハッカドール)
mosa siru212.5K views
正則化つき線形モデル(「入門機械学習第6章」より) by Eric Sartre
正則化つき線形モデル(「入門機械学習第6章」より)正則化つき線形モデル(「入門機械学習第6章」より)
正則化つき線形モデル(「入門機械学習第6章」より)
Eric Sartre48.2K views
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換 by Koichi Hamada
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Generative Adversarial Networks (GAN) の学習方法進展・画像生成・教師なし画像変換
Koichi Hamada28.2K views
IPAB2017 深層学習を使った新薬の探索から創造へ by Preferred Networks
IPAB2017 深層学習を使った新薬の探索から創造へIPAB2017 深層学習を使った新薬の探索から創造へ
IPAB2017 深層学習を使った新薬の探索から創造へ
Preferred Networks29.2K views
Generative adversarial networks by Shuyo Nakatani
Generative adversarial networksGenerative adversarial networks
Generative adversarial networks
Shuyo Nakatani5.2K views
Approximate Scalable Bounded Space Sketch for Large Data NLP by Koji Matsuda
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
Koji Matsuda2.1K views
オープンソースを利用した新時代を生き抜くためのデータ解析 by nakapara
オープンソースを利用した新時代を生き抜くためのデータ解析オープンソースを利用した新時代を生き抜くためのデータ解析
オープンソースを利用した新時代を生き抜くためのデータ解析
nakapara2.6K views
Twitter炎上分析事例 2014年 by Takeshi Sakaki
Twitter炎上分析事例 2014年Twitter炎上分析事例 2014年
Twitter炎上分析事例 2014年
Takeshi Sakaki2.5K views
「人工知能」の表紙に関するTweetの分析・続報 by Fujio Toriumi
「人工知能」の表紙に関するTweetの分析・続報「人工知能」の表紙に関するTweetの分析・続報
「人工知能」の表紙に関するTweetの分析・続報
Fujio Toriumi3.4K views
[DL輪読会]Adversarial Feature Matching for Text Generation by Deep Learning JP
[DL輪読会]Adversarial Feature Matching for Text Generation[DL輪読会]Adversarial Feature Matching for Text Generation
[DL輪読会]Adversarial Feature Matching for Text Generation
Deep Learning JP6.2K views

Recently uploaded

SSH応用編_20231129.pdf by
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdficebreaker4
184 views13 slides
Windows 11 information that can be used at the development site by
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development siteAtomu Hidaka
76 views41 slides
SNMPセキュリティ超入門 by
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門mkoda
188 views15 slides
Web3 Career_クレデン資料 .pdf by
Web3 Career_クレデン資料 .pdfWeb3 Career_クレデン資料 .pdf
Web3 Career_クレデン資料 .pdfnanamatsuo
14 views9 slides
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...NTT DATA Technology & Innovation
101 views42 slides
さくらのひやおろし2023 by
さくらのひやおろし2023さくらのひやおろし2023
さくらのひやおろし2023法林浩之
94 views58 slides

Recently uploaded(11)

SSH応用編_20231129.pdf by icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4184 views
Windows 11 information that can be used at the development site by Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka76 views
SNMPセキュリティ超入門 by mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda188 views
Web3 Career_クレデン資料 .pdf by nanamatsuo
Web3 Career_クレデン資料 .pdfWeb3 Career_クレデン資料 .pdf
Web3 Career_クレデン資料 .pdf
nanamatsuo14 views
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... by NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
さくらのひやおろし2023 by 法林浩之
さくらのひやおろし2023さくらのひやおろし2023
さくらのひやおろし2023
法林浩之94 views
01Booster Studio ご紹介資料 by ssusere7a2172
01Booster Studio ご紹介資料01Booster Studio ご紹介資料
01Booster Studio ご紹介資料
ssusere7a2172345 views
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化 by Knowledge & Experience
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化
「概念モデリング自動化に向けた第一歩」 ~ ChatGPT・Open AI 活用による開発対象のモデル化
The Things Stack説明資料 by The Things Industries by CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.50 views
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) by NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)

現在のDNNにおける未解決問題