Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
Yuta Kashino
PDF, PPTX
79,386 views
TensorFlow White Paperを読む
TensorFlow White Paperを読む
Software
◦
Read more
67
Save
Share
Embed
Embed presentation
Download
Download as PDF, PPTX
1
/ 49
2
/ 49
3
/ 49
4
/ 49
5
/ 49
6
/ 49
7
/ 49
8
/ 49
9
/ 49
10
/ 49
11
/ 49
12
/ 49
13
/ 49
14
/ 49
15
/ 49
16
/ 49
17
/ 49
18
/ 49
19
/ 49
20
/ 49
21
/ 49
22
/ 49
23
/ 49
24
/ 49
25
/ 49
26
/ 49
27
/ 49
28
/ 49
29
/ 49
30
/ 49
31
/ 49
32
/ 49
33
/ 49
34
/ 49
35
/ 49
36
/ 49
37
/ 49
38
/ 49
39
/ 49
40
/ 49
41
/ 49
42
/ 49
43
/ 49
44
/ 49
45
/ 49
46
/ 49
47
/ 49
48
/ 49
49
/ 49
More Related Content
PPTX
R高速化
by
Monta Yashi
PDF
Rの高速化
by
弘毅 露崎
PPTX
巨大な表を高速に扱うData.table について
by
Haruka Ozaki
PDF
Rにおける大規模データ解析(第10回TokyoWebMining)
by
Shintaro Fukushima
PDF
NumPyが物足りない人へのCython入門
by
Shiqiao Du
PDF
Rのデータ構造とメモリ管理
by
Takeshi Arabiki
PDF
R3.0.0 is relased
by
Shintaro Fukushima
PDF
R-hpc-1 TokyoR#11
by
Shintaro Fukushima
R高速化
by
Monta Yashi
Rの高速化
by
弘毅 露崎
巨大な表を高速に扱うData.table について
by
Haruka Ozaki
Rにおける大規模データ解析(第10回TokyoWebMining)
by
Shintaro Fukushima
NumPyが物足りない人へのCython入門
by
Shiqiao Du
Rのデータ構造とメモリ管理
by
Takeshi Arabiki
R3.0.0 is relased
by
Shintaro Fukushima
R-hpc-1 TokyoR#11
by
Shintaro Fukushima
What's hot
PPTX
Prosym2012
by
MITSUNARI Shigeo
PPTX
for関数を使った繰り返し処理によるヒストグラムの一括出力
by
imuyaoti
PDF
Python 機械学習プログラミング データ分析ライブラリー解説編
by
Etsuji Nakai
PDF
条件分岐とcmovとmaxps
by
MITSUNARI Shigeo
PDF
Pgunconf 20121212-postgeres fdw
by
Toshi Harada
PDF
高速な倍精度指数関数expの実装
by
MITSUNARI Shigeo
PDF
LLVM最適化のこつ
by
MITSUNARI Shigeo
PDF
PostgreSQLとPythonとSQL
by
Satoshi Yamada
PDF
フラグを愛でる
by
MITSUNARI Shigeo
PDF
準同型暗号の実装とMontgomery, Karatsuba, FFT の性能
by
MITSUNARI Shigeo
PDF
Cython intro prelerease
by
Shiqiao Du
PDF
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
by
Shintaro Fukushima
PDF
Rユーザのためのspark入門
by
Shintaro Fukushima
PDF
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
by
Nagi Teramo
PDF
mmapパッケージを使ってお手軽オブジェクト管理
by
Shintaro Fukushima
PDF
Cython ことはじめ
by
gion_XY
PDF
Pythonデータ分析 第3回勉強会資料 8章
by
Makoto Kawano
PDF
PythonでテキストをJSONにした話(PyCon mini sapporo 2015)
by
Satoshi Yamada
PDF
Intoroduction of Pandas with Python
by
Atsushi Hayakawa
PPTX
R -> Python
by
Kazufumi Ohkawa
Prosym2012
by
MITSUNARI Shigeo
for関数を使った繰り返し処理によるヒストグラムの一括出力
by
imuyaoti
Python 機械学習プログラミング データ分析ライブラリー解説編
by
Etsuji Nakai
条件分岐とcmovとmaxps
by
MITSUNARI Shigeo
Pgunconf 20121212-postgeres fdw
by
Toshi Harada
高速な倍精度指数関数expの実装
by
MITSUNARI Shigeo
LLVM最適化のこつ
by
MITSUNARI Shigeo
PostgreSQLとPythonとSQL
by
Satoshi Yamada
フラグを愛でる
by
MITSUNARI Shigeo
準同型暗号の実装とMontgomery, Karatsuba, FFT の性能
by
MITSUNARI Shigeo
Cython intro prelerease
by
Shiqiao Du
統計解析言語Rにおける大規模データ管理のためのboost.interprocessの活用
by
Shintaro Fukushima
Rユーザのためのspark入門
by
Shintaro Fukushima
「plyrパッケージで君も前処理スタ☆」改め「plyrパッケージ徹底入門」
by
Nagi Teramo
mmapパッケージを使ってお手軽オブジェクト管理
by
Shintaro Fukushima
Cython ことはじめ
by
gion_XY
Pythonデータ分析 第3回勉強会資料 8章
by
Makoto Kawano
PythonでテキストをJSONにした話(PyCon mini sapporo 2015)
by
Satoshi Yamada
Intoroduction of Pandas with Python
by
Atsushi Hayakawa
R -> Python
by
Kazufumi Ohkawa
Viewers also liked
PPTX
OCRは古い技術
by
Koji Kobayashi
PPTX
深層学習の非常に簡単な説明
by
Seiichi Uchida
PDF
QGISプログラミング入門 2016Osaka編
by
Kosuke Asahi
PDF
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
PDF
文字認識はCNNで終わるのか?
by
Seiichi Uchida
PDF
Introduction to Chainer
by
Shunta Saito
PDF
Introduction to Chainer: A Flexible Framework for Deep Learning
by
Seiya Tokui
OCRは古い技術
by
Koji Kobayashi
深層学習の非常に簡単な説明
by
Seiichi Uchida
QGISプログラミング入門 2016Osaka編
by
Kosuke Asahi
論文紹介 Semi-supervised Learning with Deep Generative Models
by
Seiya Tokui
文字認識はCNNで終わるのか?
by
Seiichi Uchida
Introduction to Chainer
by
Shunta Saito
Introduction to Chainer: A Flexible Framework for Deep Learning
by
Seiya Tokui
Similar to TensorFlow White Paperを読む
PDF
Deep learning Libs @twm
by
Yuta Kashino
PDF
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
by
Kenta Oono
PDF
Chainerの使い方と自然言語処理への応用
by
Seiya Tokui
PDF
lispmeetup#63 Common Lispでゼロから作るDeep Learning
by
Satoshi imai
PDF
TensorFlowの使い方(in Japanese)
by
Toshihiko Yamakami
PDF
[第2版]Python機械学習プログラミング 第14章
by
Haruki Eguchi
PDF
03_深層学習
by
CHIHIROGO
PDF
Deep learning実装の基礎と実践
by
Seiya Tokui
PDF
PRML輪読#5
by
matsuolab
PDF
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
by
孝好 飯塚
PDF
[第2版]Python機械学習プログラミング 第13章
by
Haruki Eguchi
PPTX
深層学習とTensorFlow入門
by
tak9029
PDF
Practical recommendations for gradient-based training of deep architectures
by
Koji Matsuda
PDF
20170422 数学カフェ Part1
by
Kenta Oono
PPTX
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
by
Daiyu Hatakeyama
PDF
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
PPTX
Tensorflowのチュートリアルで理解するdeep learningはじめてハンズオン
by
健一 茂木
PPTX
Deep learning basics described
by
Naoki Watanabe
PPTX
PythonでDeepLearningを始めるよ
by
Tanaka Yuichi
PPTX
Deep Learning Chap. 6: Deep Feedforward Networks
by
Shion Honda
Deep learning Libs @twm
by
Yuta Kashino
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
by
Kenta Oono
Chainerの使い方と自然言語処理への応用
by
Seiya Tokui
lispmeetup#63 Common Lispでゼロから作るDeep Learning
by
Satoshi imai
TensorFlowの使い方(in Japanese)
by
Toshihiko Yamakami
[第2版]Python機械学習プログラミング 第14章
by
Haruki Eguchi
03_深層学習
by
CHIHIROGO
Deep learning実装の基礎と実践
by
Seiya Tokui
PRML輪読#5
by
matsuolab
Scikit-learn and TensorFlow Chap-14 RNN (v1.1)
by
孝好 飯塚
[第2版]Python機械学習プログラミング 第13章
by
Haruki Eguchi
深層学習とTensorFlow入門
by
tak9029
Practical recommendations for gradient-based training of deep architectures
by
Koji Matsuda
20170422 数学カフェ Part1
by
Kenta Oono
機械学習 / Deep Learning 大全 (2) Deep Learning 基礎編
by
Daiyu Hatakeyama
深層学習フレームワーク Chainer の開発と今後の展開
by
Seiya Tokui
Tensorflowのチュートリアルで理解するdeep learningはじめてハンズオン
by
健一 茂木
Deep learning basics described
by
Naoki Watanabe
PythonでDeepLearningを始めるよ
by
Tanaka Yuichi
Deep Learning Chap. 6: Deep Feedforward Networks
by
Shion Honda
More from Yuta Kashino
PDF
Pycon2017
by
Yuta Kashino
PDF
PyConJP2016: 週末サイエンティストのススメ
by
Yuta Kashino
PDF
私は如何にして心配するのを止めてPyTorchを愛するようになったか
by
Yuta Kashino
PDF
ベイジアンディープニューラルネット
by
Yuta Kashino
PDF
深層学習とベイズ統計
by
Yuta Kashino
PDF
確率的プログラミングライブラリEdward
by
Yuta Kashino
PDF
機械学習ビジネス研究会 第01回
by
Yuta Kashino
PDF
時系列データと確率的プログラミング tfp.sts
by
Yuta Kashino
PDF
日本のオープンデータプラットフォームをPythonでつくる
by
Yuta Kashino
PDF
深層学習ライブラリのプログラミングモデル
by
Yuta Kashino
PDF
Pydata2017 11-29
by
Yuta Kashino
PDF
深層学習ライブラリの環境問題Chainer Meetup2016 07-02
by
Yuta Kashino
PDF
Ml15m2018 10-27
by
Yuta Kashino
PDF
Wasserstein GAN Tfug2017 07-12
by
Yuta Kashino
PDF
Python kansai2019
by
Yuta Kashino
PDF
Chainer meetup2016 03-19pub
by
Yuta Kashino
PDF
"Automatic Variational Inference in Stan" NIPS2015_yomi2016-01-20
by
Yuta Kashino
PDF
Gunosy2015 09-16ts
by
Yuta Kashino
PDF
Mlse20190208
by
Yuta Kashino
PDF
Gunosy2015-08-05
by
Yuta Kashino
Pycon2017
by
Yuta Kashino
PyConJP2016: 週末サイエンティストのススメ
by
Yuta Kashino
私は如何にして心配するのを止めてPyTorchを愛するようになったか
by
Yuta Kashino
ベイジアンディープニューラルネット
by
Yuta Kashino
深層学習とベイズ統計
by
Yuta Kashino
確率的プログラミングライブラリEdward
by
Yuta Kashino
機械学習ビジネス研究会 第01回
by
Yuta Kashino
時系列データと確率的プログラミング tfp.sts
by
Yuta Kashino
日本のオープンデータプラットフォームをPythonでつくる
by
Yuta Kashino
深層学習ライブラリのプログラミングモデル
by
Yuta Kashino
Pydata2017 11-29
by
Yuta Kashino
深層学習ライブラリの環境問題Chainer Meetup2016 07-02
by
Yuta Kashino
Ml15m2018 10-27
by
Yuta Kashino
Wasserstein GAN Tfug2017 07-12
by
Yuta Kashino
Python kansai2019
by
Yuta Kashino
Chainer meetup2016 03-19pub
by
Yuta Kashino
"Automatic Variational Inference in Stan" NIPS2015_yomi2016-01-20
by
Yuta Kashino
Gunosy2015 09-16ts
by
Yuta Kashino
Mlse20190208
by
Yuta Kashino
Gunosy2015-08-05
by
Yuta Kashino
TensorFlow White Paperを読む
1.
TensorFlow White Paperを読む v1.1 1
2.
今日の内容 • 自己紹介 • 神経回路網と実装 •
TensorFlow White Paerの概説 2
3.
自己紹介 3
4.
自己紹介 • バクフー株式会社 代表取締役
柏野 雄太 (かしの ゆうた) • 大規模リアルタイムデータのデータプラットフォーム • PPPP preprocess /process /persistence /providing 4
5.
http://socio.bakfoo.com/ socio@bakfoo.com Closed Beta
6.
自己紹介 • 大規模リアルタイムのデータプラットフォーム リアルタイムデータ 前処理
処理 ストア 提供 tweets 整形 自然言語処理・分類 API, 検索, 可視化 気象データ 変換 分類・異常値検知 API, 検索,ストリー ミング 位置データ 変換 分類 API, 検索, スト リーミング 経済データ 整形・変換 異常値検知 API, 検索, 可視化 6
7.
自己紹介 • Zope3の開発 • Python •
いくつかの本 • PyCon JP 2015でのトーク • バックグラウンドは宇宙物理学 • 大規模データ統計解析,科学計算 • 深層学習ウオッチャー: 2012年Hinton講義 https://goo.gl/GG4Bo8 https://www.coursera.org/course/neuralnets 7
8.
神経回路網と実装 8
9.
神経回路の数理表現 9 h(k) (x) = g(a(k) (x)) a(k) (x)
= b(k) + W (k) h(k 1) (x) … … … 1 1 1 b(3) b(2) b(1) W (1) W (2) W (3) x1 x2 xd a(3) (x) = b(3) + W (3) h(2) (x) = b(3) + W (3) g(b(2) + W (2) h(1) (x)) = b(3) + W (3) g(b(2) + W (2) g(b(1) + W (1) x)) h(0) (x) = x h(1) (x) = g(a(1) (x)) h(2) (x) = g(a(2) (x)) a(1) (x) = b(1) + W (1) h(0) (x) a(2) (x) = b(2) + W (2) h(1) (x) a(3) (x) = b(3) + W (3) h(2) (x) h(3) (x) = o(a(3) (x)) = f(x) a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x
10.
マルチレイヤー神経回路 • L個の隠れ層の神経回路 • プレ活性 •
隠れ層活性 • 出力層活性 • レイヤーは関数適用に他ならない 10 h(k) (x) = g(a(k) (x)) a(k) (x) = b(k) + W (k) h(k 1) (x) h(L+1) (x) = o(a(L+1) (x)) = f(x) a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x
11.
機械学習と損失関数 • パラメータ・トレーニングセット • 目的関数最小化 •
損失関数・正則関数 a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) ✓ = {W (1) , b(1) , ..., W (L+1) , b(L+1) } (x(t) , y(t) ) ⌦(✓) l(f(x(t) ; ✓), y(t) ) = logf(x(t) )y L(✓) = 1 T X t l(f(x(t) ; ✓), y(t) ) + ⌦(✓) argmin✓L(✓) 11
12.
勾配降下と確率的勾配降下 • 目的関数Lを最小化:勾配の方向にθを動かす • 確率的勾配降下:ミニバッチ
t だけをみて勾配 計算 = r✓l(f(x(t) ; ✓), y(t) ) ✓ ✓ + ↵ Lの等高線 α: 学習率 12
13.
勾配の計算:誤差逆伝搬 • 目的関数を最小にするには勾配の計算が必要 • 勾配の計算=誤差逆伝搬
= r✓l(f(x(t) ; ✓), y(t) ) ✓ ✓ + ↵ a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) rW (2) l(f(x), y) ra(2)(x)l(f(x), y)h(2) (x)T ra(2)(x)l(f(x), y) rh(2)(x)l(f(x), y) [..., g0 (a(2) (x)), ...] rh(2)(x)l(f(x), y) W(3)T ra(3)(x)l(f(x), y) 13
14.
勾配の計算:誤差逆伝搬 • Hugo Larochelleの講義にGo
https://goo.gl/UWtRWT a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) rW (2) l(f(x), y) ra(2)(x)l(f(x), y)h(2) (x)T ra(2)(x)l(f(x), y) rh(2)(x)l(f(x), y) [..., g0 (a(2) (x)), ...] rh(2)(x)l(f(x), y) W(3)T ra(3)(x)l(f(x), y) 14
15.
勾配の計算:誤差逆伝搬 • 主要DLライブラリは勾配を自動に計算 • 実はあまり気にしないでいい a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x)
= h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) rW (2) l(f(x), y) ra(2)(x)l(f(x), y)h(2) (x)T ra(2)(x)l(f(x), y) rh(2)(x)l(f(x), y) [..., g0 (a(2) (x)), ...] rh(2)(x)l(f(x), y) W(3)T ra(3)(x)l(f(x), y) 15
16.
ライブラリ利用で必要なのは • データを入れる場所:テンソル • レイヤーの表現 •
活性化関数・出力関数 • 損失関数 • 最適化法 • 勾配計算(誤差伝搬) • GPUへの対応 a(1) (x) a(2) (x) a(3) (x) h(2) (x) h(1) (x) f(x) = h(3) (x) g g o b(1) W (1) b(3) b(2) W (2) W (3) x l(f(x), y) 16
17.
TensorFlow 17
18.
TensorFlowキャッチ • 分散計算Theano • 最もマーケティングに成功しつつある深層学 習ライブラリ •
最初のリリースについて機能的にガッカリ…
19.
TensorFlow Demo • チュートリアルにあるMNIST
20.
インストール • 最初のリリースは動作環境も生焼け… • Python2.7でないと動かない •
GPU: CUDA7.0 (7.5は動作しない) • ProtocolBuffのバージョンでCaffeと衝突するこ とがある
21.
TensorFlow White Paper http://download.tensorflow.org/paper/whitepaper2015.pdf
22.
ご注意 • White Paperに関して一つ一つのパラグラフを 追いません •
1stリリースのTensorFlowはWhite Paperにあ る実装の半分以上が実装されていません
23.
コンセプトとモデリング • 有向非巡回グラフ(DAG)で計算を表現: • Theano,
Chainerと同じ • nodeはoperationと呼ばれin/outを持つ • operationはtensorを取ってtensorを返す • opを実行する物理的実体がkernel op op op op op op
24.
コンセプトとモデリング • 最初にoperationのグラフを定義 • グラフの計算はsession内のrunで実行される •
Chainer的には“define and run” • sessionはdevice非依存:マルチデバイス,分 散実行
25.
コンセプトとモデリング x1 x2 + y
27.
コンセプトとモデリング • opのタイプ • valiables:
パーシステントなtensorを生成する operation
28.
計算:シングル・マルチ・分散 • サブグラフを実デバイス,マシンに分散させる
29.
計算:デバイス間通信 • send/reciveノードを計算グラフに挟む
30.
微分計算 (bprop) • [db,
dW, dx] = tf.gdadients( C, [b, W, x] )
31.
部分計算:サブグラフの計算 • サブグラフを切断: feed/fetchノードを追加
32.
計算グラフのフロー制御 • 低レベルのオペレータはある • opの実行制御:
Switch, Merge • イテレーション:Enter, Leave, NextIteration
33.
入力ノード,キュー,コンテナ • 入力制御:ノードとしてテンソルをファイル・ データシステムから食わせることもできる • キュー:enqurue/dequeueで非同期実行. FIFO+シャッフルキュー •
コンテナ:Variableで定義
34.
実装の最適化 • 計算グラフの繰り返しや無駄を最適化 • GPUへのデータ転送,デバイス間の通信などたくさん最 適化している(詳細不明) •
queueを使ったカーネルの非同期処理 • テンソル計算にはEigen libを使っている • デバイス間のデータ転送には桁落ちしない圧縮
35.
SGDを速く:データ並行 • ミニバッチごとに複数デバイスにグラフをレ プリ
36.
SGDを速く: モデル並行 • LSTMをつかうRNNなどはdeviceごとにopを 割り振る
37.
SGDを速く: 少数ステップ • 複数デバイスに分散するより,シングルデバイ スで少ないステップをパイプライン化したほ うが良い場合もある
38.
ビジュアライゼーション • TensorBoard python tensorboard.py
--logdir=log-directory localhost:6006
39.
ビジュアライゼーション
40.
今回の割愛 • 6 Status
and Experience • 9.2 Performance Tracing • 10 Future Work • 11 Related Work
41.
Performance • 単一マシンの速度はあまり速くない… • ただ,Gの力を結集して最適化真っ最中 https://github.com/soumith/convnet-benchmarks/issues/66
42.
Multiple Devices? • シングルマシンのマルチGPUなら対応済み http://www.tensorflow.org/tutorials/deep_cnn/index.html python
cifar10_multi_gpu_train.py --num_gpus=2
43.
Multiple Computers? http://www.tensorflow.org/resources/faq.html#running_a_tensorflow_computation https://github.com/tensorflow/tensorflow/issues/23#issuecomment-155608002
44.
kerasがTFに対応宣言 https://twitter.com/fchollet/status/663735623119949824
45.
BlackBoxMLの動きも: skflow • Simplified
interface for TensorFlow (mimicking Scikit Learn) https://github.com/google/skflow
46.
DL学習リソース 46
47.
動画講義 (全力でオススメ) • Deep
Learning Summer School 2015 • Hugo Larochelle (Twitter/U of Sherbrooke) • Nando de Freitas (Oxford) • CS231n: CNN for Visual Recognition • CS224d: DL for Natural Language Processing http://videolectures.net/deeplearning2015_montreal/ http://cs231n.stanford.edu/ http://cs224d.stanford.edu/index.html https://www.cs.ox.ac.uk/people/nando.defreitas/machinelearning/ https://goo.gl/UWtRWT 47
48.
書籍 • 古典: Bengio
et.al. 2015 DLBook • Theano Tutorial • Neural Networks and Deep Learning • 岡谷貴之著 深層学習 (機械学習プロ) • 神嶌敏弘編 深層学習: Deep Learning http://www.iro.umontreal.ca/~bengioy/dlbook/ http://neuralnetworksanddeeplearning.com/ http://deeplearning.net/tutorial/deeplearning.pdf 48
49.
ご質問・ご意見 kashino@bakfoo.com 49 @yutakashino
Download