SlideShare a Scribd company logo
1 of 21
Download to read offline
en.newikipedia.org (@niam)




en.newikipedia.org
の紹介とRで最大の行列を作る話

        東京大学 中川研D1
          江原 遥, @niam
           Tsukuba.R #7
             2010/5/09
                                1
en.newikipedia.org (@niam)
自己紹介
en.newikipedia.org 紹介
http://en.newikipedia.org/wiki/Japan

スマート辞書付きWikipediaです.
• ブラウザをユーザだと思って,ユーザの英語力に合わせて,ページを
  ロードしたときに分からなさそうな単語を予測し,最初から訳を付けて
  おくというのがスマート辞書です.
• 最初は,全ユーザの平均的な英語力が想定されます.
• 訳がついていない単語をクリックすると訳がつけられます.また,その
  単語を本当は知らなかったということなので英語力を調整して,次の
  ページをロードした時の予測に役立てます.
• 逆に訳が付いている単語をクリックすると,訳が引っ込むと同時に,そ
  の単語は本当は知っていたということなので,英語力を調整して,次
  のページをロードした時の予測に役立てます.


                                                     2
en.newikipedia.org (@niam)
Wikipediaにneをつけるだけ
en.wikipedia.org/wiki/Japan

en.newikipedia.org/wiki/Japan




                                       3
en.newikipedia.org (@niam)




ところで.



                4
en.newikipedia.org (@niam)




このシステム,
Rと何の関係が?


             5
en.newikipedia.org (@niam)




関係ないです
       applyを知らなかったあの頃
2005年頃は,Rでfor文をバリバ
リ書いてたんですが,
最近は,pythonやってます.
                   6
en.newikipedia.org (@niam)




さすがにまずい
ので…


             7
en.newikipedia.org (@niam)




ほぅ…
                    8
en.newikipedia.org (@niam)




なんと.

                    9
en.newikipedia.org (@niam)




実際にやってみた
研究室の
大容量メモリマシンで
             10
en.newikipedia.org (@niam)
topコマンド

Mem: 148,441,292k total,
 12,141,880k used,
 136,299,412k free
1300 x 1800000 ≒
1.3K x 1.8M = 2.34 G
                         OK,空いてる
1要素に40バイト使っても,
93.6GB<136GBなので,さすがに
大丈夫だろう.


                                           11
en.newikipedia.org (@niam)
よし!
> system.time(i.u.mat<-matrix(0,1300,1800000))

   以下にエラー matrix(0, 1300, 1800000)指定された要
   素数が多すぎます

   Timing stopped at:0 0 0

  なんでだーーーーーー??
   メモリは足りているはずなのに.




                                                 12
en.newikipedia.org (@niam)
help(“Memory-limits”)
There are also limits on individual objects. On all builds of R,
  the maximum length (number of elements) of a vector is 2^31 - 1 ~
  2*10^9, as lengths are stored as signed integers. In addition,
  the storage space cannot exceed the address limit, and if you try
  to exceed that limit, the error message begins ‘cannot allocate
  vector of length’. The number of characters in a character
  string is in theory only limited by the address space.




                                                                      13
en.newikipedia.org (@niam)
help(“Memory-limits”)
There are also limits on individual objects. On all builds of R,

    the maximum length (number of
   elements) of a vector is 2^31 - 1 ~
    2*10^9, as lengths are stored as signed integers. In addition,
  the storage space cannot exceed the address limit, and if you try
  to exceed that limit, the error message begins ‘cannot allocate
  vector of length’. The number of characters in a character
  string is in theory only limited by the address space.

      理由:添字が32bitの符号付きintだから.符号付きなの
      は,Rでは負の添字を使って,v[-50]で50番目の要素を
      除いたベクトルを作る機能があるから.

                                                                        14
en.newikipedia.org (@niam)
じゃぁ,これはできる?
> system.time(i.u.mat<-matrix(0,1,2^31-1))
                               2^31-1≒2G< 2.34 G
   ユーザ システム      経過            ≒ 1.3K x 1.8M
    7.613 3.882 11.495         だから,さっきの行列は要
                               素数の制限に引っかかって
                               出来なかった.
          できたー!!

   psでのプロセスのメモリ使用量(RSS)
   33,587,916 kbytes
要素数は2G個なので,1要素あたり10バイト以上もメモリを食う計算.
最初,3GBだと思って2個Rを立ち上げたら,79GBぐらい使ってて
慌ててkillしました.
                                                  15
en.newikipedia.org (@niam)
厳密に2^31-1なようです.
> system.time(i.u.mat<-matrix(0,2,2^31-1))
以下にエラー matrix(0, 2, 2^31 - 1) : 指定された要素数が
   多すぎます
Timing stopped at: 0 0 0

> system.time(i.u.mat<-matrix(0,1,2^31))
 以下にエラー matrix(0, 1, 2^31) :
  'ncol' の値が不正です(大きすぎるか NA です)
 追加情報: 警告メッセージ:
In matrix(0, 1, 2^31) : 強制変換により NA が生成されまし
   た
Timing stopped at: 0 0 0


                                              16
en.newikipedia.org (@niam)
行列の要素数が2^31-1以下ならOK
> system.time(i.u.mat<-matrix(0,2^15,2^15))
  ユーザ システム             経過
   3.800 1.991 5.790
 ちなみに,2^31-1はオイラーが1772年に発見した,8番目のメ
 ルセンヌ素数だそうです.2^30-1は素数じゃないようです.
 http://en.wikipedia.org/wiki/Mersenne_prime

 自明(1×nかn×1 )な形でない要素数nが最大の行列を考え
 ると,n=2^31-1は素数なので無理で,n=2^31-2となります.
 2^30-1=pqと因数分解すると(素数ではないので可能),
 n=2^31-2=2(2^30-1)=2pq
 なので,2p×qかp×2qの行列になります.
                                                 17
en.newikipedia.org (@niam)
ベクトルもいけました
> system.time(v<-numeric(2^31-1))
  ユーザ システム           経過
   2.356 3.443 5.801

> system.time(v<-numeric(2^31))
以下にエラー vector("double", length) :
  指定されたベクトルのサイズが長すぎます
Timing stopped at: 0.001 0 0

top:            2^31-1のmatrixより5G以上小さくて済むようです.
Mem: 148,441,292k total, 28,767,460k used, 119,673,832k
  free, 262,348k buffers


                                                        18
en.newikipedia.org (@niam)
やってはいけない
> quit()
Save workspace image? [y/n/c]: y

                 さすがに,これは,
                 やってみなかった




                                                 19
en.newikipedia.org (@niam)
ちなみに…
There are also limits on individual objects. On all builds of R,
  the maximum length (number of elements) of a vector is 2^31 - 1 ~
  2*10^9, as lengths are stored as signed integers. In addition,
  the storage space cannot exceed the address limit, and if you try
  to exceed that limit, the error message begins ‘cannot allocate

            The number of characters in
  vector of length’.

   a character
    string is in theory only limited by
   the address space.
文字列なら,2G以上いけるはず.

                                                                      20
en.newikipedia.org (@niam)
まとめ
• en.newikipedia.org
使ってください.こっちが本題です(笑)

• 行列もベクトルも最大サイズは,要素数が厳密に
  2^31-1個のものでした.
• 理由は,添字に32bitのintを使っているからです.
  符号付きなのは,Rでは負の添字はその添字の要
  素を除いた行列,ベクトルになるという機能がある
  からです.
• 要素数2^31-1では,行列1個33GB程度,ベクトル1
  個28GB程度メモリを消費します.要素数が2Gなの
  で,1要素10バイト以上メモリを食う計算になります.

                                     21

More Related Content

What's hot

Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Makoto Kawano
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習Motoya Wakiyama
 
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化Yuya Unno
 
関東第2回r勉強会
関東第2回r勉強会関東第2回r勉強会
関東第2回r勉強会Paweł Rusin
 
Lispmeetup #45 Common Lispで音声合成
Lispmeetup #45 Common Lispで音声合成Lispmeetup #45 Common Lispで音声合成
Lispmeetup #45 Common Lispで音声合成Satoshi imai
 
Lisp meetup #29 cl-online-learningの紹介
Lisp meetup #29 cl-online-learningの紹介Lisp meetup #29 cl-online-learningの紹介
Lisp meetup #29 cl-online-learningの紹介Satoshi imai
 
Pythonによる機械学習の最前線
Pythonによる機械学習の最前線Pythonによる機械学習の最前線
Pythonによる機械学習の最前線Kimikazu Kato
 
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Lispmeetup #39 MGLの紹介: Common LispによるディープラーニングLispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Lispmeetup #39 MGLの紹介: Common LispによるディープラーニングSatoshi imai
 
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについてshow you
 
El text.tokuron a(2019).watanabe190606
El text.tokuron a(2019).watanabe190606El text.tokuron a(2019).watanabe190606
El text.tokuron a(2019).watanabe190606RCCSRENKEI
 
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)Shuyo Nakatani
 
Pythonデータ分析 第4回勉強会資料 12章
Pythonデータ分析 第4回勉強会資料 12章Pythonデータ分析 第4回勉強会資料 12章
Pythonデータ分析 第4回勉強会資料 12章Makoto Kawano
 
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Ryosuke Okuta
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstmFujimoto Keisuke
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memorynishio
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装Ryosuke Okuta
 
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~Takuya Akiba
 

What's hot (20)

音声認識と深層学習
音声認識と深層学習音声認識と深層学習
音声認識と深層学習
 
Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章Python for Data Anaysis第2回勉強会4,5章
Python for Data Anaysis第2回勉強会4,5章
 
Gensim
GensimGensim
Gensim
 
2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習2013.07.15 はじパタlt scikit-learnで始める機械学習
2013.07.15 はじパタlt scikit-learnで始める機械学習
 
CuPy解説
CuPy解説CuPy解説
CuPy解説
 
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化
 
関東第2回r勉強会
関東第2回r勉強会関東第2回r勉強会
関東第2回r勉強会
 
Lispmeetup #45 Common Lispで音声合成
Lispmeetup #45 Common Lispで音声合成Lispmeetup #45 Common Lispで音声合成
Lispmeetup #45 Common Lispで音声合成
 
Lisp meetup #29 cl-online-learningの紹介
Lisp meetup #29 cl-online-learningの紹介Lisp meetup #29 cl-online-learningの紹介
Lisp meetup #29 cl-online-learningの紹介
 
Pythonによる機械学習の最前線
Pythonによる機械学習の最前線Pythonによる機械学習の最前線
Pythonによる機械学習の最前線
 
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Lispmeetup #39 MGLの紹介: Common LispによるディープラーニングLispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
 
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて
 
El text.tokuron a(2019).watanabe190606
El text.tokuron a(2019).watanabe190606El text.tokuron a(2019).watanabe190606
El text.tokuron a(2019).watanabe190606
 
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
 
Pythonデータ分析 第4回勉強会資料 12章
Pythonデータ分析 第4回勉強会資料 12章Pythonデータ分析 第4回勉強会資料 12章
Pythonデータ分析 第4回勉強会資料 12章
 
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
 
Long Short-term Memory
Long Short-term MemoryLong Short-term Memory
Long Short-term Memory
 
ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装ディープラーニングフレームワーク とChainerの実装
ディープラーニングフレームワーク とChainerの実装
 
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
プログラミングコンテストでのデータ構造 2 ~平衡二分探索木編~
 

Viewers also liked

Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning SurveyYo Ehara
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagationYo Ehara
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会Yo Ehara
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai Yo Ehara
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
Icml yomikai 07_16
Icml yomikai 07_16Icml yomikai 07_16
Icml yomikai 07_16Yo Ehara
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903Yo Ehara
 
PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰Yo Ehara
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Yo Ehara
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングYo Ehara
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo AfricaYo Ehara
 

Viewers also liked (11)

Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning Survey
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagation
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
Icml yomikai 07_16
Icml yomikai 07_16Icml yomikai 07_16
Icml yomikai 07_16
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903
 
PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリング
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo Africa
 

Similar to Tsukuba.R #7 5/9

katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃trmr
 
Data-Intensive Text Processing with MapReduce ch4
Data-Intensive Text Processing with MapReduce ch4Data-Intensive Text Processing with MapReduce ch4
Data-Intensive Text Processing with MapReduce ch4Sho Shimauchi
 
how-calculate-cluster-coefficience
how-calculate-cluster-coefficiencehow-calculate-cluster-coefficience
how-calculate-cluster-coefficienceNorihiro Shimoda
 
Intel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86optiIntel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86optiTakashi Hoshino
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Satoshi Kato
 
第9回ACRiウェビナー_日立/島田様ご講演資料
第9回ACRiウェビナー_日立/島田様ご講演資料第9回ACRiウェビナー_日立/島田様ご講演資料
第9回ACRiウェビナー_日立/島田様ご講演資料直久 住川
 
第一回Data mining勉強会 -第二章
第一回Data mining勉強会 -第二章第一回Data mining勉強会 -第二章
第一回Data mining勉強会 -第二章Tomonobu_Hirano
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズムTakuya Akiba
 
第一回Data mining勉強会 -第二章 - 原案
第一回Data mining勉強会 -第二章 - 原案第一回Data mining勉強会 -第二章 - 原案
第一回Data mining勉強会 -第二章 - 原案yushin_hirano
 
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learninglispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep LearningSatoshi imai
 
並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.js並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.jsYoshiiro Ueno
 
TSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解くTSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解くRui High
 
多次元配列の効率的利用法の検討
多次元配列の効率的利用法の検討多次元配列の効率的利用法の検討
多次元配列の効率的利用法の検討Yu Sato
 
RのffでGLMしてみたけど...
RのffでGLMしてみたけど...RのffでGLMしてみたけど...
RのffでGLMしてみたけど...Kazuya Wada
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
Washingtondc b20161214 (2/3)
Washingtondc b20161214 (2/3)Washingtondc b20161214 (2/3)
Washingtondc b20161214 (2/3)Toshiyuki Shimono
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecShin Asakawa
 

Similar to Tsukuba.R #7 5/9 (20)

More modern gpu
More modern gpuMore modern gpu
More modern gpu
 
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
katagaitai workshop #7 crypto ナップサック暗号と低密度攻撃
 
Data-Intensive Text Processing with MapReduce ch4
Data-Intensive Text Processing with MapReduce ch4Data-Intensive Text Processing with MapReduce ch4
Data-Intensive Text Processing with MapReduce ch4
 
how-calculate-cluster-coefficience
how-calculate-cluster-coefficiencehow-calculate-cluster-coefficience
how-calculate-cluster-coefficience
 
Tokyo r27
Tokyo r27Tokyo r27
Tokyo r27
 
Intel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86optiIntel TSX HLE を触ってみた x86opti
Intel TSX HLE を触ってみた x86opti
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
第9回ACRiウェビナー_日立/島田様ご講演資料
第9回ACRiウェビナー_日立/島田様ご講演資料第9回ACRiウェビナー_日立/島田様ご講演資料
第9回ACRiウェビナー_日立/島田様ご講演資料
 
第一回Data mining勉強会 -第二章
第一回Data mining勉強会 -第二章第一回Data mining勉強会 -第二章
第一回Data mining勉強会 -第二章
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム
 
第一回Data mining勉強会 -第二章 - 原案
第一回Data mining勉強会 -第二章 - 原案第一回Data mining勉強会 -第二章 - 原案
第一回Data mining勉強会 -第二章 - 原案
 
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learninglispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learning
 
並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.js並列対決 Elixir × Go × C# x Scala , Node.js
並列対決 Elixir × Go × C# x Scala , Node.js
 
TSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解くTSPを山登り法と焼きなまし法で解く
TSPを山登り法と焼きなまし法で解く
 
多次元配列の効率的利用法の検討
多次元配列の効率的利用法の検討多次元配列の効率的利用法の検討
多次元配列の効率的利用法の検討
 
HPC Phys-20201203
HPC Phys-20201203HPC Phys-20201203
HPC Phys-20201203
 
RのffでGLMしてみたけど...
RのffでGLMしてみたけど...RのffでGLMしてみたけど...
RのffでGLMしてみたけど...
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
Washingtondc b20161214 (2/3)
Washingtondc b20161214 (2/3)Washingtondc b20161214 (2/3)
Washingtondc b20161214 (2/3)
 
TensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vecTensorFlow math ja 05 word2vec
TensorFlow math ja 05 word2vec
 

Tsukuba.R #7 5/9