Home
Explore
Submit Search
Upload
Login
Signup
Advertisement
Check these out next
最適化超入門
Takami Sato
言語と知識の深層学習@認知科学会サマースクール
Yuya Unno
CVPR 2015 読み会 "Understanding Deep Image Representations by Inverting Them"
Hiroharu Kato
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Preferred Networks
Variational AutoEncoder
Kazuki Nitta
学習時に使ってはいないデータの混入「リーケージを避ける」
西岡 賢一郎
視覚と対話の融合研究
Yoshitaka Ushiku
GPU上でのNLP向け深層学習の実装について
Yuya Unno
1
of
24
Top clipped slide
TensorFlowプログラミングと分類アルゴリズムの基礎
Dec. 27, 2016
•
0 likes
12 likes
×
Be the first to like this
Show More
•
4,733 views
views
×
Total views
0
On Slideshare
0
From embeds
0
Number of embeds
0
Download Now
Download to read offline
Report
Technology
2016/12/27 ver1.1 公開
Etsuji Nakai
Follow
Cloud Solutions Architect at Google
Advertisement
Advertisement
Advertisement
Recommended
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
563 views
•
36 slides
モデルではなく、データセットを蒸留する
Takahiro Kubo
7.6K views
•
16 slides
シリーズML-06 ニューラルネットワークによる線形回帰
Katsuhiro Morishita
4.6K views
•
38 slides
情報抽出入門 〜非構造化データを構造化させる技術〜
Yuya Unno
37.7K views
•
52 slides
SAT/SMTソルバの仕組み
Masahiro Sakai
35.9K views
•
51 slides
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
Preferred Networks
400 views
•
36 slides
More Related Content
Slideshows for you
(20)
最適化超入門
Takami Sato
•
166.5K views
言語と知識の深層学習@認知科学会サマースクール
Yuya Unno
•
26.8K views
CVPR 2015 読み会 "Understanding Deep Image Representations by Inverting Them"
Hiroharu Kato
•
3.7K views
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
Preferred Networks
•
129 views
Variational AutoEncoder
Kazuki Nitta
•
14.2K views
学習時に使ってはいないデータの混入「リーケージを避ける」
西岡 賢一郎
•
1.4K views
視覚と対話の融合研究
Yoshitaka Ushiku
•
3.6K views
GPU上でのNLP向け深層学習の実装について
Yuya Unno
•
31K views
ラボラトリーオートメーションのためのソフトウェア思想教育(非プログラマ―が知っておくべきプログラミングの本質)
Tokoroten Nakayama
•
19.8K views
ChatGPTは思ったほど賢くない
Carnot Inc.
•
4.2K views
ChatGPTの驚くべき対話能力 20230414APR.pdf
YamashitaKatsushi
•
395 views
GiNZAで始める日本語依存構造解析 〜CaboCha, UDPipe, Stanford NLPとの比較〜
Megagon Labs
•
16.1K views
グラフィカルモデル入門
Kawamoto_Kazuhiko
•
114.6K views
モデル高速化百選
Yusuke Uchida
•
24.1K views
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
•
16.2K views
構造方程式モデルによる因果推論: 因果構造探索に関する最近の発展
Shiga University, RIKEN
•
12.8K views
全力解説!Transformer
Arithmer Inc.
•
7.5K views
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Preferred Networks
•
424 views
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
•
6.6K views
【DL輪読会】GPT-4Technical Report
Deep Learning JP
•
937 views
Similar to TensorFlowプログラミングと分類アルゴリズムの基礎
(20)
Googleのインフラ技術から考える理想のDevOps
Etsuji Nakai
•
22.4K views
TensorFlowで遊んでみよう!
Kei Hirata
•
12.4K views
【2017年】ディープラーニングのフレームワーク比較
Ryota Suzuki
•
24.9K views
大規模並列実験を支えるクラウドサービスと基盤技術
RyuichiKanoh
•
1.7K views
Windowsにpythonをインストールしてみよう
Kenji NAKAGAKI
•
5.5K views
Intalio japan special cloud workshop
Daisuke Sugai
•
720 views
20120927 findjob4 dev_ops
ume3_
•
4.3K views
[DL Hacks]色々と進化しているTensorFlow - 紹介編 -
Deep Learning JP
•
313 views
ChainerでDeep Learningを試す為に必要なこと
Jiro Nishitoba
•
2.3K views
TensorFlowで音声認識
祐太 上岡
•
877 views
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正版)」
ManaMurakami1
•
783 views
Development and Experiment of Deep Learning with Caffe and maf
Kenta Oono
•
70.8K views
MTプラグイン入門以前
Hiroshi Yamato
•
2.5K views
ChainerでDeep Learningを試すために必要なこと
Retrieva inc.
•
1.2K views
プランナーがPR駆動してみた話
Rino Omura
•
1.8K views
Cloudn PaaSチームのChatOps実践
Kazuto Kusama
•
7.6K views
Sphinx ではじめるドキュメント生活 2012 #pyconjp #sphinxconjp
Takeshi Komiya
•
10.4K views
TensorFlowによるCNNアーキテクチャ構築
Hirokatsu Kataoka
•
18.5K views
Pytorch
卓馬 三浦
•
335 views
Chainerで学ぶdeep learning
Retrieva inc.
•
5.5K views
Advertisement
More from Etsuji Nakai
(20)
PRML11.2-11.3
Etsuji Nakai
•
4K views
「ITエンジニアリングの本質」を考える
Etsuji Nakai
•
15.2K views
Googleのインフラ技術に見る基盤標準化とDevOpsの真実
Etsuji Nakai
•
9.4K views
Introducton to Convolutional Nerural Network with TensorFlow
Etsuji Nakai
•
4.2K views
Googleにおける機械学習の活用とクラウドサービス
Etsuji Nakai
•
6.2K views
Spannerに関する技術メモ
Etsuji Nakai
•
9.3K views
A Brief History of My English Learning
Etsuji Nakai
•
2.8K views
TensorFlowによるニューラルネットワーク入門
Etsuji Nakai
•
19.2K views
Using Kubernetes on Google Container Engine
Etsuji Nakai
•
2.9K views
Lecture note on PRML 8.2
Etsuji Nakai
•
1K views
Machine Learning Basics for Web Application Developers
Etsuji Nakai
•
4K views
Your first TensorFlow programming with Jupyter
Etsuji Nakai
•
2.6K views
Deep Q-Network for beginners
Etsuji Nakai
•
2.4K views
Life with jupyter
Etsuji Nakai
•
3.1K views
TensorFlowで学ぶDQN
Etsuji Nakai
•
10.1K views
DevOpsにおける組織に固有の事情を どのように整理するべきか
Etsuji Nakai
•
4.6K views
PRML7.2
Etsuji Nakai
•
964 views
インタークラウドを実現する技術 〜 デファクトスタンダードからの視点 〜
Etsuji Nakai
•
2.4K views
Exploring the Philosophy behind Docker/Kubernetes/OpenShift
Etsuji Nakai
•
5.1K views
「TensorFlow Tutorialの数学的背景」 クイックツアー(パート1)
Etsuji Nakai
•
10.8K views
Recently uploaded
(20)
MC-800DMT intrusion detector manual
Vedard Security Alarm System Store
•
3 views
コードレビュー改善のためにJenkinsとIntelliJ IDEAのプラグインを自作してみた話
Rakuten Group, Inc.
•
39 views
【DL輪読会】大量API・ツールの扱いに特化したLLM
Deep Learning JP
•
138 views
《杨百翰大学毕业证|学位证书校内仿真版本》
d520dasw12
•
2 views
開発環境向けEKSのコスト最適
ducphan87
•
0 views
【DL輪読会】HyperDiffusion: Generating Implicit Neural Fields withWeight-Space Dif...
Deep Learning JP
•
0 views
ChatGPT + LlamaIndex 0 .6 による チャットボット の実装
Takanari Tokuwa
•
73 views
【DL輪読会】マルチモーダル 基盤モデル
Deep Learning JP
•
0 views
Windows ChatGPT Bing AI.pptx
Atomu Hidaka
•
7 views
3Dプリンタって いいね
infinite_loop
•
64 views
DrupalをDockerで起動してみる
iPride Co., Ltd.
•
22 views
SoftwareControl.pdf
ssusercd9928
•
15 views
ネットワークパケットブローカー市場.pdf
HinaMiyazu
•
9 views
JSTQB_テストマネジメントとレビュープロセス.pdf
akipii Oga
•
245 views
JSTQB_テストプロセスの概念モデル.pdf
akipii Oga
•
274 views
統計学の攻略_推測統計学の考え方.pdf
akipii Oga
•
281 views
統計学の攻略_正規分布ファミリーの全体像.pdf
akipii Oga
•
276 views
通信プロトコルについて
iPride Co., Ltd.
•
7 views
初学者のためのプロンプトエンジニアリング実践.pptx
Akifumi Niida
•
487 views
【DL輪読会】TrOCR: Transformer-based Optical Character Recognition with Pre-traine...
Deep Learning JP
•
0 views
Advertisement
TensorFlowプログラミングと分類アルゴリズムの基礎
TensorFlow プログラミングと 分類アルゴリズムの基礎 Etsuji Nakai Cloud
Solutions Architect at Google 2016/12/27 ver1.1
2 $ who am
i ▪Etsuji Nakai Cloud Solutions Architect at Google Twitter @enakai00 好評発売中
TensorFlow プログラミング入門
4 (参考) Jupyter Notebook
について ▪ Web ブラウザー上で Python によるデータ分析を行う ツール(オープンソースソフトウェア) ▪ TensorFlow を用いたコードの開発も可能 ▪ GCP 環境では、 Cloud Datalab で利用可能 ▪ 独自にセットアップする際は、こちらの手順を参照 ● GCP で Jupyter を使用する方法 ● http://enakai00.hatenablog.com/entry/2016/07/03/201117
5 TensorFlow のプログラミングモデル ▪ 事前に関係式を定義しておき、その後、「セッション」 を立ち上げて計算処理を実施します。 ● 分散学習機能を使う場合は、各計算ノードのセッションが協 調して動作します。 ▪
次の 3 種類の違いを意識して、コードを書くことに注意 が必要です。 ● トレーニングデータを代入する変数 : Placeholder ● チューニング対象のパラメーター: Variable ● これらを組み合わせた計算式
6 例題:最小二乗法による平均気温予測 ▪ 気温変化の背後にあるなめらかな曲線を推測して、「来 年の月々の平均気温」を予測します。 ● 背後にある曲線を次の 4
次関数と仮定します。 ● この時、来年の予測気温は、次の行列計算で書き表すことが できます。 今年の月々の平均気温 計算式 Placeholder Variable
7 例題:最小二乗法による平均気温予測 ▪ 推測した曲線のデータに対する「あてはまらなさ具合」を 表す「誤差関数」を定義して、これを最小化するようにパ ラメーター をチューニングします。 ● これは、
TensorFlow のライブラリ関数を用いると、次 のように表現できます。 観測データと予測値 Placeholder :観測データ
8 例題:最小二乗法による平均気温予測 ▪ これらの関係を TensorFlow
のコードで表現すると、 次のようになります。 x = tf.placeholder(tf.float32, [None, 5]) w = tf.Variable(tf.zeros([5, 1])) y = tf.matmul(x, w) t = tf.placeholder(tf.float32, [None, 1]) loss = tf.reduce_sum(tf.square(y-t))
9 例題:最小二乗法による平均気温予測 ▪ 最後に最適化アルゴリズムを指定します。 ▪ この後は、セッションを作成して、最適化アルゴリズムの実行を 繰り返すことで、パラメーターの最適化が実施されます。 sess
= tf.Session() sess.run(tf.initialize_all_variables()) i = 0 for _ in range(100000): i += 1 sess.run(train_step, feed_dict={x:train_x, t:train_t}) if i % 10000 == 0: loss_val = sess.run(loss, feed_dict={x:train_x, t:train_t}) print ('Step: %d, Loss: %f' % (i, loss_val)) train_step = tf.train.AdamOptimizer().minimize(loss)
10 例題:最小二乗法による平均気温予測 http://goo.gl/Dojgp4 ▪ 詳しくはデモでご紹介します!
分類アルゴリズムの基礎
12 線形2項分類器 https://goo.gl/fP0Tpn ▪ 2 種類のデータを直線で分類して、新しい データが「✕」に属する確率を計算するモ デルを作ります。 ● Neural
Network Playground で、実際に 試してみましょう。
13 ロジスティック回帰 ▪ 直線を次式で表現して、ロジスティック 関数 σ
を用いて、確率に変換します。 ▪ トレーニングデータにフィットするよう に係数 を調整することを 「モデルの学習」と呼びます。 ロジスティック関数 σ
14 (参考)「フィットした」ことの判断基準 ▪ 一般に「フィットしてなさ具合」を示す「誤差関数」を定義して、誤差関数を最小化す るようにパラメーターを決定します。 ● ロジスティック回帰では、計算された確率用いて、トレーニングデータを分類した時に「全問正 解する確率」を最大化するようにパラメーターを調整します。 ● n 番目のデータ が「✕」である確率を として、この確率で「✕である」と予測 します。実際のデータを
( 1:✕, 0:○ )とすると、これが正解である確率は、 ● したがって、すべてのデータに正解する確率は、 ● 次で誤差関数を定義すると、「全問正解の確率最大」⇔「誤差関数が最小」となります。
15 線形2項分類器の図形的解釈 ▪ 関数 のグラフを描くと、図のよう に「斜めに配置した板」で
平面が分割 されることがわかります。
16 線形多項分類器(ハードマックス方式) ▪ 平面上のデータを直線で「 3
種類」に分類す るには、どのようにすればよいでしょうか? ▪ 直線を表す1次関数を 3 つ用意して、どの関 数が最大になるかで、その点を分類します。 ● 右図のように、「3枚の板」によって分類され ることがわかります。
17 線形多項分類器(ソフトマックス方式) ▪ 点 が i
番目の領域である確率を次 式で定義します。 ▪ これは、 の大小関係を確率に変換し たもので、次の条件を満たすことがすぐにわ かります。
ニューラルネットワークによる 画像分類
19 ソフトマックス関数による画像分類 ▪ たとえば、 28x28
ピクセルのグレイスケール画像 は、各ピクセルの値を一列にならべると、 784 次元 空間の点とみなすことができます。 ▪ 大量の画像データを 784 次元空間にばらまくと、類 似画像は互いに近くに集まると考えられないでしょ うか? ● ソフトマックス関数で 784 次元空間を分割すること で、画像を分類できるかも知れません・・・。
20 TensorFlow でやってみた 正解例 不正解例 http://goo.gl/rGqjYh ▪
詳しくはデモでご紹介します。
21 畳み込みニューラルネットワークによる性能向上 ▪ 画像データをそのままソフトマックス関数に入力する のではなく、各種の画像フィルターを通して、特徴を 抽出してからソフトマックス関数に入力します。 ▪ 詳しくはこちらを参照!
22 TensorFlow でやってみた http://goo.gl/UHsVmI http://goo.gl/VE2ISf ▪ 詳しくはデモでご紹介します。
23 (おまけ)モデルの学習と適用のプロセス 既存モデル 改定版モデル A 追加データ 改定版モデル B 完成版モデル アプリケーション 利用 学習処理 本番環境 テスト テスト 既存モデル更新 学習処理 再学習処理 success fail 既存モデル既存モデル モデルの バージョン管理 モデルの調整 データの準備・投入 モデルの デプロイ ▪
これってソフトウェアの開発モデル (CI/CD) と 似ている気がしませんか? ▪ このプロセスを標準化/自動化する仕組み作り が本格活用の基礎となります。
Thank you!
Advertisement