SlideShare a Scribd company logo
1 of 85
Download to read offline
エヌビディア
自習形式で学ぶ
「DIGITS による画像分類入門」
Qwiklabs(クイックラボ)自習形式ハンズオン
エヌビディアのハンズオントレーニングイベント “NVIDIA Deep Learning Institute (DLI)” で
利用しているトレーニングプラットフォーム “Qwiklabs” は、自宅や職場で自習形式ハンズオン
として活用することも可能です。
この資料では、自習形式のハンズオンラボ受講に必要な手順を簡単に説明します。
Qwiklabs(クイックラボ)アカウントの作成
簡単に作成できます。
すでにアカウントをお持ちの場合は不要です。①
②
ラボの開始
Web ブラウザで Qwiklabs へアクセスして、ハンズオンラボを起動します。
この資料の解説を参考にしながら、挑戦してください。
Qwiklabs(クイックラボ)アカウントの作成
Qwiklabs アカウントの作成
https://nvidia.qwiklab.com へアクセス。
必要事項を記入して、
“CREATE A NEW ACCOUNT” をクリックします。① ②
ここで入力したアドレスに、アクティ
ベーション用のメールが届きますので、
受信可能なメールアドレスを入力
してください。
画面の日本語化
ラボ起動前に必ず実施してください
画面表示が英語のままだと、起動するラボも英語版になってしまいます。
ラボ起動前に、アカウント設定で Language を Japanese にしてください。
①
②
③
ラボの開始
「DIGITS による画像分類入門」 ラボの開始
カタログから探すか URL を直接入力
https://nvidia.qwiklab.com/focuses/1579
「DIGITS による画像分類入門」
①
②
③
④
「DIGITS による画像分類入門」 ラボの開始
ラボの開始には3分程度かかります。
ラボが開始されたら「LAUNCH LAB」をクリックします。 ENJOY!!
エヌビディア
DIGITS による画像分類入門
本ラボの目的
— ディープラーニングのイントロダクション
— ネットワークのトレーニング
— トレーニングの結果を理解する
— コンピュータビジョン・画像分類に関するハンズオン
— CaffeとDIGITSを使用する
9/26/2017
本ラボが意図しないこと
— 機械学習に対する基本的なイントロダクション
— ニューラルネットワークに関する正確な定式化
— Caffe・DIGITSや他のツールに関する、すべての機能の紹介
— 最先端のディープラーニング企業になるためのノウハウ
前提知識
— ディープラーニングに関するバックグラウンドは不要
— Webブラウザが利用できること
- URLへのアクセス
- ファイルのダウンロード
- ファイルマネージャを用いてのファイルの配置(=ファイルのアップロード)
本ラボの受講後には……
— ディープラーニングのワークフローを理解しています。
— 畳み込みニューラルネットワークをセットアップ、トレーニングする
ことができます。
— 本当のエキスパートになるための、最初のステップを実践するこ
とができます。
自分自身のネットワークを設定でき、より深く理解するために、
何をすればよいかがわかります。
ディープラーニングとは?
ディープラーニングは機械学習の一分野
機械学習
ニューラルネットワーク
ディープラーニング
様々な分野でディープラーニングを応用
インターネットとクラウド
画像分類
音声認識
言語翻訳
言語処理
感情分析
推薦
メディアとエンターテイメント
字幕
ビデオ検索
リアルタイム翻訳
機械の自動化
歩行者検出
白線のトラッキング
信号機の認識
セキュリティと防衛
顔検出
ビデオ監視
衛星画像
医学と生物学
癌細胞の検出
糖尿病のランク付け
創薬
機械学習におけるビッグバン
“GoogleのAIエンジンは コンピュータハードウエアの世界における変化を示している。GPUを搭載したマ
シンに依存しているのだ… これまでに、より広範なテクノロジが用いられてきたが、それ以上に強く、
GPUに依存しているのだ。”
DNN GPUBIG DATA
人工ニューロン
From Stanford cs231n lecture notes
生物学的ニューロン
w1 w2 w3
x1 x2 x3
y
y=F(w1x1+w2x2+w3x3)
F(x) = max(0, x)
人工ニューロン
(パーセプトロン)
人工ニューラルネットワーク
単純で訓練可能な数学ユニットの集合体
ニューラルネットワーク全体で複雑な機能を学習
入力層 出力層
隠れ層
十分なトレーニングデータを与えられた人工ニューラルネットワークは、
入力データから判断するための複雑な関数を近似することができる。
ディープラーニングのアプローチ
inference:
犬
猫
蜜穴熊
誤差
犬
猫
アライグマ
犬
training:
DNN
DNN
畳込みニューラルネットワーク (CNN)
入力 結果
アプリケーションの構成要素例:
タスクの目的
顔の同定
トレーニングデータ
1千万-1億 のイメージ
ネットワークアーキテクチャ
十から数百のレイヤー
10億のパラメータ
学習アルゴリズム
~30 Exaflops
1-30 日(1GPU)
生データ 低レベルの特徴 中間レベルの特徴 高レベルの特徴
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
1
2
2
1
1
1
0
1
2
2
2
1
1
0
1
2
2
2
1
1
0
0
1
1
1
1
1
0
0
0
0
0
0
0
4
0
0
0
0
0
0
0
-4
1
0
-8
入力ピクセル
コンボリューション
カーネル
出力ピクセル
コンボリューションカーネルの係数と、
入力ピクセルを掛け、足し合わせた
値を出力とする。
畳込み層(CONVOLUTIONAL LAYER)
CNN: 畳み込み層
vdumoulin/conv_arithmetic, https://github.com/vdumoulin/conv_arithmetic
入力
コンボリューションカーネル
出力
元画像
CNN: 畳み込み層
24
畳み込みカーネル
出力
畳み込みの計算例
ディープラーニングの利点
▪ 堅牢性
▪ 事前に特徴量のデザインをする必要がない。
▪ 現在のタスクに最適な特徴量が、自動的に学習される。
▪ 元来データに存在する多様性に対しても、学習により、堅牢となる。
▪ 一般化
▪ 同じニューラルネットワークによるアプローチを、多数の異なるアプリケーション、データに対して適用でき
る。
▪ スケーラブル
▪ より多くのデータを用いた学習により、性能が改善する。
▪ 学習の演算を、超並列化することができる。
CAFFE & DIGITS
このラボで使用するツール
CAFFE とは?
• Berkeley Vision and learning Center (BVLC) において開発
• 多くのコントリビュータにより構成されるオープンソースコミュニティ
• C++/CUDA による実装。高速、よく検証されたコード
シームレスな GPU によるアクセラレーション
• コマンドライン、Python, MATLAB インターフェース
• リファレンスモデルや、サンプルもある。
オープンソースのディープラーニングフレームワーク
caffe.berkeleyvision.org
http://github.com/BVLC/caffe
CAFFE の機能
データのプリプロセスと管理
データフォーマット
LevelDB・LMDB データベース
インメモリ (C++・Python のみ)
HDF5
画像ファイル
プリプロセスツール
生画像からの LevelDB/LMDB の
作成
トレーニング用と検証用のデータ
セット作成(シャッフル付き)
平均画像の生成
データ変換
イメージのトリミング・リサイズ、
スケーリング、位置反転
平均値を引く
学習データの作成 モデルの作成 モデルのテスト学習過程の可視化
NVIDIA DIGITS
GPUで高速化されたディープラーニング トレーニング システム
http://developer.nvidia.com/digits
NVIDIA DIGITS
手元のPCからWebブラウザでアクセス可能なディープラーニング トレーニング システム
GPUで高速化されたディープラーニング トレーニング システム
ユーザー
インターフェース
レイヤーの
可視化
学習モデルの
作成
データセット
の作成
学習過程の
可視化
Theano
GPUGPU HW クラウドGPUクラスタマルチGPU
TensorFlow
Torch
Caffe
cuDNN, cuBLAS
CUDA
学習
NVCaffe
cuDNN, cuBLAS
CUDA
• 画像分類と物体検出の為のDNNのデザ
インと可視化の機能を提供
• NVIDIAが最適化したフレームワークで高
速に学習が可能
• ハイパーパラメータのチューニングを強力に
サポート
• 学習のジョブを簡単にスケジューリング、リ
アルタイムにaccuracyとlossを監視
• 様々な学習データフォーマット、フレーム
ワークに対応
チュートリアル:
手書き文字認識
チュートリアルのゴール
— ディープラーニングのワークフローを学ぶ
— 手書き文字認識を理解する
— コンボリューショナルネットワークのトレーニング (Caffe と DIGITS)
— 複数の異なる手法を試し、結果を改善できるようになる
— 学習と検証を繰り返すことは、ディープラーニングにおける基本的な手続き
手書き文字認識
MNIST データセット
(Yann LeCun’s Web site)
http://yann.lecun.com/exdb/mnist/
サイズ : 28x28、グレースケール、
ピクセル値 0 - 255
トレーニング用データ : 6万
テスト用データ : 1万
入力ベクタサイズ : 784 ( = 28 x 28)
出力は0-9の整数
機械学習におけるHELLO WORLD?
このラボで使うディープニューラルネットワーク
LeNet, 1998
INPUT
28x28 feature maps
20 @12x12
Convolutions 5x5
Convolutions 5x5
feature maps
50 @8x8
Max Pooling 2x2
feature maps
20 @24x24 feature maps
50 @4x4
Max Pooling 2x2
Fully
connected
500 500
ReLU Fully
connected
Softmax
10 10
コンボリューション / サブサンプリング
入力層
— コンボリューションレイヤー
- コンボリューションの計算
複数の特徴マップを生成する
— プーリングレイヤー
- 最大値プーリング:
2x2 の領域から、最大値を取得
- サブサンプリングで大きさを縦横半分に
INPUT
28x28 feature maps
20 @12x12
Convolutions 5x5
Max Pooling 2x2
feature maps
20 @24x24
全結合層&活性化関数
— 50 @ 4x4 = 800ピクセルを一つのベクトルと
してまとめる
— Fully connected layer
— 重み行列で表現
— ReLU : 活性化関数
— 𝑚𝑎𝑥 0, 𝑥
— Softmax : 活性化関数
—
𝑒𝑥𝑝 𝑎 𝑖
σ 𝑗
𝑛 𝑒𝑥𝑝 𝑎 𝑗
9/26/2017
Fully
connected
500 500
ReLU Fully
connected
Softmax
10 10
feature maps
50 @4x4
ニューラルネットワークモデルの定義
Protobuf モデルフォーマット
ネットワークモデル、および、トレーニ
ングパラメータの定義
Caffeコードの自動生成、自動形式
チェック
高い可読性、強い型付け
Googleにより開発されたOSS
Caffeにおけるモデル定義形式
name: “conv1”
type: “Convolution”
bottom: “data”
top: “conv1”
convolution_param {
num_output: 20
kernel_size: 5
stride: 1
weight_filler {
type: “xavier”
}
}
ニューラルネットワークモデルの定義
Loss関数:
分類
Softmax loss
Sigmoid cross entropy loss
Hinge loss
回帰
Euclidean loss
などなど……
レイヤー種別:
Convolution
Pooling
Normalization
活性化関数:
ReLU
Sigmoid
Tanh
などなど……
Caffeにおけるモデル定義形式
ラボの流れ
1. まず試してみる
1. AlexNetで試しに6000件の画像を学習
2. (option)異なるデータセット(CalTech-101)も試してみる
2. 性能を改善するために
1. さらに学習させる
2. 6000件の画像でLeNetを学習
3. 6万件すべての画像で学習
4. Data Augmentation
5. (option)ネットワークをカスタマイズ
学習・評価の試行錯誤を追体験
という流れをちょっと変えて……
ラボの流れ
1. 一連の流れを体験
1. 6000件の画像でLeNetを学習
2. 6万件すべての画像で学習
3. Data Augmentation
4. ネットワークをカスタマイズ
2. (option)より大きなネットワーク/問題にチャレンジ
1. AlexNetで試しに6000件の画像を学習
2. さらに学習させる
3. 異なるデータセット(CalTech-101)も試してみる
学習・評価の試行錯誤を追体験
チュートリアル1:
画像分類の一連の流れを試す
1-1. 6000件のデータでLENETを学習
DIGITSで一連の流れを試す
全体の10%
だけを使う
1-1. 6000件のデータでLENETを学習
実施する作業
1. データセット作成
2. モデルの作成(=学習)
3. モデルの評価(=推論)
DIGITSで一連の流れを試す
Datasetsタブを選択後、
New Dataset > Imagesから
“Classification”を選択
初回だけログインを求められる
ので、ユーザー名を入力
(英数小文字) ここを
選択
データセットの作成
1.
2. 3.
1. Image Type : Grayscale
2. Image Size : 28 x 28
3. Training Images:
/data/train_small
4. Dataset Name: “mnist small”
5. Createボタンを押す
4.
5.
モデルの作成
その1
9/26/2
1. クリックしてホーム画面へ
2. ここを選択
1. 左上の”DIGITS”をクリックして、
HOME画面に戻る
2. Modelsタブを選択後、
New Model > Imagesから、
“Classification”を選択
モデルの作成
1. “mnist small” データセットを選択
2. Training Epochs を”8”にする
3. モデルは、”LeNet” を選択
4. モデル名は、”The right model for
the data” を入力
1. “mnist small”データセットを選択
2. Training epochsを”8”に設定
3. “LeNet”を選択
4. “The right model
for the data”を入力
Loss 関数
(検証データ)
Loss 関数
(学習データ)
Accuracy
検証データセット
から求められる
一つのファイルでテスト
1. Image Pathに、以下を入力
/data/test_small/2/img_4415.png
2. “Show visualization and statistics”をチェック
3. “Classify One”ボタンを押す
現実世界の画像を試す
画像リストファイルの取得
• jupyterに戻る
• In [ ] を実行(Ctrl + Enter)
• 実行後に出力されるan_image.listを
右クリック
• 「テキストファイル」 として保存
画像リストファイル
内容はテストデータへのファイル
パスの列
/notebook/test_images/image-1-1.jpg
/notebook/test_images/image-2-1.jpg
/notebook/test_images/image-3-1.jpg
/notebook/test_images/image-4-1.jpg
/notebook/test_images/image-7-1.jpg
/notebook/test_images/image-8-1.jpg
/notebook/test_images/image-8-2.jpg
テキストエディタで開いたときの見え方
画像リストでテストする
1. “Browse…”ボタンをクリック
an_image.listを選択
2. “Classify Many”ボタンを押す
1. Upload Image Listの
“Browse…”ボタンをクリックし、
an_image.listを選択
2. “Classify Many”ボタンを押す
最初の結果
Small dataset
9/26/2
- Accuracy : 96 %
- トレーニングは、1分で終わる。
SMALL DATASET
1 : 99.90 %
2 : 69.03 %
8 : 71.37 %
8 : 85.07 %
0 : 99.00 %
8 : 99.69 %
8 : 54.75 %
1-2. 6万件すべての画像で学習
データ量は性能に影響を与えるのか
全データを使う
FULL DATASET
10倍大きなデータセット
— データセット
— “mnist small”をクローン(Cloneボタンを押す)
— Training Images : /data/train_full
— Dataset Name : MNIST full
— モデル
— “The right model for the data”をクローン(Cloneボタンを押す)
— データを”MNIST full”に変更
— モデル名に“MNIST full”を設定し、”Create”ボタンを押す
9/26/2017
SMALL DATASET FULL DATASET
1 : 99.90 % 0 : 93.11 %
2 : 69.03 % 2 : 87.23 %
8 : 71.37 % 8 : 71.60 %
8 : 85.07 % 8 : 79.72 %
0 : 99.00 % 0 : 95.82 %
8 : 99.69 % 8 : 100.0 %
8 : 54.75 % 2 : 70.57 %
2つ目の結果
Full dataset
- 99 % of accuracy achieved.
- 現実世界の画像の認識には、
改善なし。
1-3. DATA AUGMENTATION
白黒反転した画像を追加
— Pixel(Inverted) = 255 – Pixel(original)
— 黒い背景に白い文字
→ 白い背景に黒い文字
— “MNIST full”をクローン(データ/モデルと
も)
— Training Images: /data/train_invert
Dataset Name: MNIST invert
— Select Dataset: MNIST invert
Model Name: MNIST invert
SMALL DATASET FULL DATASET +INVERTED
1 : 99.90 % 0 : 93.11 % 1 : 90.84 %
2 : 69.03 % 2 : 87.23 % 2 : 89.44 %
8 : 71.37 % 8 : 71.60 % 3 : 100.0 %
8 : 85.07 % 8 : 79.72 % 4 : 100.0 %
0 : 99.00 % 0 : 95.82 % 7 : 82.84 %
8 : 99.69 % 8 : 100.0 % 8 : 100.0 %
8 : 54.75 % 2 : 70.57 % 2 : 96.27 %
1-3. DATA AUGMENTATION
白黒反転した画像を追加
9/26/2
1-4. ネットワークをカスタマイズ
ReLUレイヤの追加と、コンボリューションフィルタの修正
INPUT
28x28 feature maps
20 → 75 @12x12
Convolusions 5x5
feature maps
75@8x8
Max Pooling 2x2
feature maps
20 → 75 @24x24
feature maps
50 -> 100@4x4
Max Pooling 2x2
Fully
connected
500 500
ReLU Fully
connected
Softmax
10 10
ReLU Convolusions 5x5
LENETのネットワークをカスタマイズ
9/26/2017
Customizeを
クリック
ネットワークの可視化
9/26/2017
“Visualize”ボタンをクリック
ネットワークの変更内容
ReLUレイヤの追加と、コンボリューションフィルタの変更
layer {
name: "pool1“
type: "Pooling“
…
}
# ReLUレイヤの追加ここから ->
layer {
name: "reluP1"
type: "ReLU"
bottom: "pool1"
top: "pool1"
}
# <- ここまで
layer {
name: “conv2“
layer {
name: "conv1"
type: "Convolution"
...
convolution_param {
num_output: 75 # feature map数
...
layer {
name: "conv2"
type: "Convolution"
...
convolution_param {
num_output: 100 # feature map数
...
ネットワークの変更内容
編集後、Visualizeボタンを押して、
ネットワークを確認。
ReLUレイヤの追加
conv1
20 → 75
conv2
50 → 100
reluP1
1-4. ネットワークをカスタマイズ
フィルタとReLUレイヤの追加
SMALL DATASET FULL DATASET +INVERTED ADDING LAYER
1 : 99.90 % 0 : 93.11 % 1 : 90.84 % 1 : 59.18 %
2 : 69.03 % 2 : 87.23 % 2 : 89.44 % 2 : 93.39 %
8 : 71.37 % 8 : 71.60 % 3 : 100.0 % 3 : 100.0 %
8 : 85.07 % 8 : 79.72 % 4 : 100.0 % 4 : 100.0 %
0 : 99.00 % 0 : 95.82 % 7 : 82.84 % 2 : 62.52 %
8 : 99.69 % 8 : 100.0 % 8 : 100.0 % 8 : 100.0 %
8 : 54.75 % 2 : 70.57 % 2 : 96.27 % 8 : 70.83 %
チュートリアル2 (OPTION):
より大きなネットワーク/問題にチャレンジ
2-1. ALEXNETで画像分類を学習
AlexNet, 2012
2-1. ALEXNETで画像分類を学習
より大きなネットワーク
256px
256px
拡大
28px
28px
データセット作成
1. Training Images:
/data/train_small
2. Dataset Name:“Default
Options Small Digits
Dataset”
3. Createボタンを押す
1.
2.
3.
モデルの作成
1. “Default Options Small Digits
Dataset” を選択
2. Training Epochs を”5”にする
その2
1. “Default Options Small Digits Dataset”を選択
2. Training epochsを”5”に設定
下
へ
モデルの作成
1. フレームワークは、“Caffe”を選択
2. モデルは、 “AlexNet”を選択
3. モデル名は、“My first model”を入
力
その3
1. “Caffe”を選択
2. “AlexNet”を選択
3. “My first model”を
入力
一つのファイルでテスト
1. Image Pathに、以下を入力
/data/test_small/2/img_4415.png
2. “Show visualization and statistics”をチェック
3. “Classify One”ボタンを押す
2-2. より長く学習させる
学習済みモデルの作成と利用
学習前
5epoch学習
さらに4epoch学習
ゼロから学習
学習済みモデルを
ベースに学習
モデルは
改善するのか?
2-2. より長く学習させる
学習済みモデルの作成
1. DIGITSのホームに戻り、Modelsタブから”My first model”を選択
2. ページの下までスクロールし、”Make Pretrained Model”ボタンをクリック
モデルの作成
1. “Default Options Small Digits
Dataset” を選択
2. Training Epochs を”4”にする
学習済みモデルをベースに
1. “Default Options Small Digits Dataset”を選択
2. Training epochsを”4”に設定
下
へ
モデルの作成
1. “Pretrained Networks” を選択
2. 学習済みモデルとして、“My first
model” を選択
3. モデル名は、”Study More” にする
学習済みモデルをベースに
1. “Pretrained Networks”を選択
2. “My first model”を選択
3. “Study More”と入力
性能の高いところから再開
エポックごとの改善率は緩やか
一つのファイルでテスト
1. Image Pathに、以下を入力
/data/test_small/2/img_4415.png
2. “Show visualization and statistics”をチェック
3. “Classify One”ボタンを押す
結果を比較
9/26/2
5epochのみ
5epochのみ
5epochのみ
学習済みモデル+4epoch
よりよく予測できている
画像リストでテストする
1. “Browse…”ボタンをクリック
an_image.listを選択
2. “Classify Many”ボタンを押す
1. Upload Image Listの
“Browse…”ボタンをクリックし、
an_image.listを選択
2. “Classify Many”ボタンを押す
2-2. より長く学習させる
AlexNet with small dataset
9/26/2
- Accuracy : 95 %
- 学習時間は数分
- 単にネットワークを大きくしただ
けで精度が上がる、ということ
はない
ALEXNET W/
SMALL DATASET
8 : 32.68 %
8 : 68.03 %
8 : 54.60 %
8 : 76.43 %
8 : 61.26 %
8 : 59.15 %
3 : 32.73 %
2-3. 異なるデータセット(CALTECH-101)
より複雑なデータを試してみましょう
— Caltech 101データセット
( http://www.vision.caltech.edu
/Image_Datasets/Caltech101/ )
— 画像幅: 80 – 3481
— 画像高さ: 92 – 3999
— 総画像枚数: 9144
— 出力カテゴリは101クラス
2-3. 異なるデータセット(CALTECH-101)
データセット&モデルの作成
— データセット作成
— Training Images: /data/101_ObjectCategories
— Dataset Name: “Caltech 101”
— モデルの作成
— Select Dataset: “Caltech 101”を選択
— Training epochs: 5
— Network: AlexNet
— Model Name: “Caltech model”
一つのファイルでテスト
1. Image Pathに、以下を入力
/notebooks/Dolphin2.jpg
2. “Show visualization and statistics”をチェック
3. “Classify One”ボタンを押す
www.nvidia.com/dli

More Related Content

What's hot

プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法
Takuya Akiba
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
Shuyo Nakatani
 

What's hot (20)

実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 
Learning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for GraphsLearning Convolutional Neural Networks for Graphs
Learning Convolutional Neural Networks for Graphs
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)敵対的生成ネットワーク(GAN)
敵対的生成ネットワーク(GAN)
 
PRML第6章「カーネル法」
PRML第6章「カーネル法」PRML第6章「カーネル法」
PRML第6章「カーネル法」
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
Rustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかRustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったか
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
 
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
[DLHacks 実装]Network Dissection: Quantifying Interpretability of Deep Visual R...
 
プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法プログラミングコンテストでの動的計画法
プログラミングコンテストでの動的計画法
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
確率的主成分分析
確率的主成分分析確率的主成分分析
確率的主成分分析
 
Neural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFNNeural networks for Graph Data NeurIPS2018読み会@PFN
Neural networks for Graph Data NeurIPS2018読み会@PFN
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
双対性
双対性双対性
双対性
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 

Similar to 自習形式で学ぶ「DIGITS による画像分類入門」

[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
de:code 2017
 
2012 kanemotolablecture1
2012 kanemotolablecture12012 kanemotolablecture1
2012 kanemotolablecture1
ytanno
 

Similar to 自習形式で学ぶ「DIGITS による画像分類入門」 (20)

ハンズオン1: DIGITS によるディープラーニング入門
ハンズオン1: DIGITS によるディープラーニング入門ハンズオン1: DIGITS によるディープラーニング入門
ハンズオン1: DIGITS によるディープラーニング入門
 
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
 
ハンズオン セッション 1: DIGITS によるディープラーニング入門
ハンズオン セッション 1: DIGITS によるディープラーニング入門ハンズオン セッション 1: DIGITS によるディープラーニング入門
ハンズオン セッション 1: DIGITS によるディープラーニング入門
 
DIGITSによるディープラーニング画像分類
DIGITSによるディープラーニング画像分類DIGITSによるディープラーニング画像分類
DIGITSによるディープラーニング画像分類
 
Intel OpenVINO™ ツールキットのご紹介
Intel OpenVINO™ ツールキットのご紹介Intel OpenVINO™ ツールキットのご紹介
Intel OpenVINO™ ツールキットのご紹介
 
Azure Machine Learning Services 概要 - 2019年2月版
Azure Machine Learning Services 概要 - 2019年2月版Azure Machine Learning Services 概要 - 2019年2月版
Azure Machine Learning Services 概要 - 2019年2月版
 
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
Azure Antenna AI 概要
Azure Antenna AI 概要Azure Antenna AI 概要
Azure Antenna AI 概要
 
Hivemall Talk@SIGMOD-J Oct.4, 2014.
Hivemall Talk@SIGMOD-J Oct.4, 2014.Hivemall Talk@SIGMOD-J Oct.4, 2014.
Hivemall Talk@SIGMOD-J Oct.4, 2014.
 
OpenCVを用いた画像処理入門
OpenCVを用いた画像処理入門OpenCVを用いた画像処理入門
OpenCVを用いた画像処理入門
 
機械学習 / Deep Learning 大全 (5) Tool編
機械学習 / Deep Learning 大全 (5) Tool編機械学習 / Deep Learning 大全 (5) Tool編
機械学習 / Deep Learning 大全 (5) Tool編
 
Jenkinsstudy#4kokawa
Jenkinsstudy#4kokawaJenkinsstudy#4kokawa
Jenkinsstudy#4kokawa
 
CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介CVPR 2011 ImageNet Challenge 文献紹介
CVPR 2011 ImageNet Challenge 文献紹介
 
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
[DL Hacks 実装]StyleNet: Generating Attractive Visual Captions with Styles
 
Reco choku tech night #09 -reinvent2018報告会-
Reco choku tech night #09 -reinvent2018報告会-Reco choku tech night #09 -reinvent2018報告会-
Reco choku tech night #09 -reinvent2018報告会-
 
2012 kanemotolablecture1
2012 kanemotolablecture12012 kanemotolablecture1
2012 kanemotolablecture1
 
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
[DL輪読会]An Image is Worth 16x16 Words: Transformers for Image Recognition at S...
 
MIRU2018 tutorial
MIRU2018 tutorialMIRU2018 tutorial
MIRU2018 tutorial
 
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
人が注目する箇所を当てるSaliency Detectionの最新モデル UCNet(CVPR2020)
 

More from NVIDIA Japan

More from NVIDIA Japan (20)

HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?HPC 的に H100 は魅力的な GPU なのか?
HPC 的に H100 は魅力的な GPU なのか?
 
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
NVIDIA cuQuantum SDK による量子回路シミュレーターの高速化
 
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
Physics-ML のためのフレームワーク NVIDIA Modulus 最新事情
 
20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf20221021_JP5.0.2-Webinar-JP_Final.pdf
20221021_JP5.0.2-Webinar-JP_Final.pdf
 
開発者が語る NVIDIA cuQuantum SDK
開発者が語る NVIDIA cuQuantum SDK開発者が語る NVIDIA cuQuantum SDK
開発者が語る NVIDIA cuQuantum SDK
 
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワークNVIDIA Modulus: Physics ML 開発のためのフレームワーク
NVIDIA Modulus: Physics ML 開発のためのフレームワーク
 
NVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読みNVIDIA HPC ソフトウエア斜め読み
NVIDIA HPC ソフトウエア斜め読み
 
HPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなのHPC+AI ってよく聞くけど結局なんなの
HPC+AI ってよく聞くけど結局なんなの
 
Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報Magnum IO GPUDirect Storage 最新情報
Magnum IO GPUDirect Storage 最新情報
 
データ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラデータ爆発時代のネットワークインフラ
データ爆発時代のネットワークインフラ
 
Hopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないことHopper アーキテクチャで、変わること、変わらないこと
Hopper アーキテクチャで、変わること、変わらないこと
 
GPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIAGPU と PYTHON と、それから最近の NVIDIA
GPU と PYTHON と、それから最近の NVIDIA
 
GTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリーGTC November 2021 – テレコム関連アップデート サマリー
GTC November 2021 – テレコム関連アップデート サマリー
 
テレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティテレコムのビッグデータ解析 & AI サイバーセキュリティ
テレコムのビッグデータ解析 & AI サイバーセキュリティ
 
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
必見!絶対におすすめの通信業界セッション 5 つ ~秋の GTC 2020~
 
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
2020年10月29日 プロフェッショナルAI×Roboticsエンジニアへのロードマップ
 
2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育2020年10月29日 Jetson活用によるAI教育
2020年10月29日 Jetson活用によるAI教育
 
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
2020年10月29日 Jetson Nano 2GBで始めるAI x Robotics教育
 
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
COVID-19 研究・対策に活用可能な NVIDIA ソフトウェアと関連情報
 
Jetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジにJetson Xavier NX クラウドネイティブをエッジに
Jetson Xavier NX クラウドネイティブをエッジに
 

Recently uploaded

Recently uploaded (12)

知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 

自習形式で学ぶ「DIGITS による画像分類入門」