SlideShare a Scribd company logo
1 of 24
ラビットチャレンジレポート
深層学習day1
2022/1
目次
 ニューラルネットワークの全体像
 Section1: 入力層~中間層
 Section2: 活性化関数
 Section3: 出力層
 Section4: 勾配降下法
 Section5: 誤差逆伝播法
2
ニューラルネットワーク
の全体像
3
ニューラルネットワークの全体像
4
概要
ニューラルネットワーク: 機械学習モデルの一種。人間の脳を模した数理モデルで回帰、分類を問わず様々な分野
に応用されている。入力層、中間層、出力層で構成される。
ディープラーニング: 中間層を増やし多層にしたニューラルネットワークモデルのこと。
ニューラルネットワークの模式図
入力層 中間層 出力層
入力層: 3ノード1層
中間層: 2ノード2層
出力層: 1ノード1層
ディープラーニングの応用例
画像認識(VGG、ResNet)、物体検知(R-CNN、YOLO)、骨格推定(OpenPose)、
機械翻訳(GPT、BERT)、画像生成(VAE、GAN)、ゲームAI(DQN、AlphaGo)など
ニューラルネットワークの全体像
5
確認テスト
Q1. ディープラーニングは何をやろうとしているか2行以内で述べよ。
A1. ニューラルネットワークを多層にしてモデルの表現力を高め、より優れた機械学習モデルを構築すること。
Q2. 次の中のどの値の最適化が最終目的か。すべて選べ。
A2. ③重み[W]、④バイアス[b]
Q3. 入力層2ノード1層、中間層3ノード2層、出力層1ノード1層のネットワークをかけ。
A3.
入力層 中間層 出力層
Section1:
入力層~中間層
6
Section1: 入力層~中間層
7
概要
入力層: 入力データ𝒙に対し重み𝑾を掛け合わせバイアス𝑏を加え𝒖を出力する層。
中間層: 入力層から出力された𝒖を活性化関数と呼ばれる非線形関数𝑓で変換した𝒛を出力する層。
𝒖 =
𝑗=1
𝑛
𝑤𝑗𝑥𝑗 + 𝑏 = 𝑾𝒙 + 𝑏
入力層の式
𝒛 = 𝑓(𝒖)
中間層の式
活性化関数𝑓について詳細はSection2でまとめる
Section1: 入力層~中間層
8
確認テスト
Q1. 講義資料の図式に動物分類の実例を入れてみよう。
A1.
Q3. 1-1のファイルから中間層の出力を定義しているソースを抜き出せ。
A3.
Q2. 𝑢 = 𝑤1𝑥1 + 𝑤2𝑥2 + 𝑤3𝑥3 + 𝑤4𝑥4 = 𝑾𝒙 + 𝑏をPythonで書け。
A2.
𝑥1
𝑤1
𝑥2
𝑥3
𝑥4
𝑏
𝑤2
𝑤3
𝑤4
𝑢 𝑧 𝑧
𝑥1: 体長(3.2m)
𝑥2: 体重(6000kg)
𝑥3: 耳の大きさ(1m)
𝑥4: 足の長さ(50cm)
𝑧: ゾウ
Section2:
活性化関数
9
Section2: 活性化関数
10
概要
活性化関数: ニューラルネットワークにおいて、次の層への出力の大きさを決める非線形の関数。
中間層の出力に用いられる主な活性化関数
・ReLU関数
・シグモイド(ロジスティック)関数
・ステップ関数
・ハイパボリックタンジェント
この他にもReLU関数を改良したReakyReLUやBERTに用いられているGELUなど様々な活性化関数が考案されている
出力層の出力に用いられる主な活性化関数
・ソフトマックス関数
・恒等写像
・シグモイド(ロジスティック)関数
Section2: 活性化関数
11
活性化関数の式と実装
サンプルコード ReLU関数の式
𝑓 𝑥 =
𝑥(𝑥 > 0)
0 (𝑥 ≤ 0)
シグモイド関数の式
𝑓 𝑥 =
1
1 + 𝑒−𝑥
ステップ関数の式
𝑓 𝑥 =
1(𝑥 > 0)
0 (𝑥 ≤ 0)
ReLU シグモイド関数 ステップ関数
ReLUは勾配消失問題に強く、シグモイド関数やステップ関数よりも優れているといわれている
Section2: 活性化関数
12
確認テスト
Q1. 線形と非線形の違いを図に書いて簡易に説明せよ。
A1. 線形: 足し算と定数倍のみで表され、グラフにすると直線になるもの。
非線形: 直線のグラフで表されないもの。
Q2. 配布されたソースコードより𝒛 = 𝑓(𝒖)に該当する箇所を抜き出せ。
A2. Section1のQ3と同様
線形 非線形
Section3:
出力層
13
Section3: 出力層
14
概要
出力層: 中間層の出力結果を目的に合わせて活性化関数で変換したものを出力する層。
回帰問題では恒等写像、2クラス分類ではシグモイド関数、多クラス分類ではソフトマックス関数がよく用いられる。
誤差関数: 出力層の出力(予測値)と真値との誤差の度合いを定量的に表すための関数。損失関数ともよばれ、これを0
に近づけるために重み𝑾とバイアス𝑏の学習を進めていく。
出力層の活性化関数の式
回帰(恒等写像)
𝑓 𝑢 = 𝑢
二値分類(シグモイド関数)
𝑓 𝑢 =
1
1 + 𝑒−𝑢
多クラス分類(ソフトマックス関数)
𝑓 𝒊, 𝒖 =
𝑒𝑢𝑖
𝑘=1
𝐾
𝑒𝑢𝑘
誤差関数の式
回帰(二乗誤差)
𝐸 𝑾 =
1
2
𝑖=1
𝐼
(𝑦𝑖 − 𝑑𝑖)2
分類(交差エントロピー)
𝐸 𝑾 = −
𝑖=1
𝐼
𝑑𝑖log 𝑦𝑖
分類問題では、出力層において各クラスに対する予測確率が出力されその総和が1になる必要がある。
そのため分類問題では出力層にシグモイド関数やソフトマックス関数を使用する。
回帰問題では特に制限がないため恒等写像を用いる。
Section3: 出力層
15
確認テスト(1/2)
Q1. なぜ引き算ではなく二乗するか述べよ。
A1. 誤差を絶対値の大きさで評価するため。例として真値が(3, 8)のデータに対し、予測値が(5, 6)の場合
(3-5)+(8-6)=0となり、誤差は存在しているが誤差関数の値が0となってしまう。このような問題を回避するため
に二乗して誤差を大きさのみで評価する。
Q2. 下式の1/2はどういう意味をもつか述べよ。
A2. 誤差関数の最小化には、誤差関数を学習パラメータで微分する必要がある。二乗の式を微分すると係数に2が表
れるため、もとから1/2を乗じておくことで係数を1にするように調整する意味をもっている。
Q3. ①~③の数式に該当するソースコードを示し、一行ずつ処理の説明をせよ。
A3.
𝐸 𝑾 =
1
2
𝑗=1
𝐼
(𝑦𝑖 − 𝑑𝑗)2
=
1
2
(𝒚 − 𝒅) 2
ソフトマックス関数
𝑓 𝒊, 𝒖 =
𝑒𝑢𝑖
𝑘=1
𝐾
𝑒𝑢𝑘
① ②
③
① def softmax(x)
② np.exp(x)
③ np.sum(np.exp(x))
Section3: 出力層
16
確認テスト(2/2)
Q4. ①~②の数式に該当するソースコードを示し、一行ずつ処理の説明をせよ。
A4.
交差エントロピー
𝐸𝑛 𝑾 = −
𝑖=1
𝐼
𝑑𝑖log 𝑦𝑖
① ②
① def cross_entropy_error(d, y)
② -np.sum(np.log(y[np.arange(batch_size), d] + 1e-7)) / batch_size
Section4:
勾配降下法
17
Section4: 勾配降下法
18
概要
勾配降下法: 誤差関数を最小化するパラメータを発見するために利用するアルゴリズム。
確率的勾配降下法: 勾配降下法を全データを用いるのではなくランダムにサンプリングしたデータで行う手法。
計算コストの削減や局所解への収束を防ぐなどのメリットがある。
ミニバッチ勾配降下法: 勾配降下法をあらかじめランダムに分割したデータごとに行う手法。確率的勾配降下法より
も並列化の容易さなどが利点といてあげられる。
𝒘(𝑡+1)
= 𝒘(𝑡)
− 𝜀𝛻𝐸 𝛻𝐸 =
𝜕𝐸
𝜕𝒘
=
𝜕𝐸
𝜕𝑤1
⋯
𝜕𝐸
𝜕𝑤𝑀
勾配降下法の式
𝜀: 学習率
𝒘(𝑡+1)
= 𝒘(𝑡)
− 𝜀𝛻𝐸𝑛
確率的勾配降下法の式
誤差関数を微分した値𝛻𝐸が正の場合は負の方向へ、𝛻𝐸が負の場合は正の方向へ重みを更新し誤差関数を最小化する
𝒘(𝑡+1)
= 𝒘(𝑡)
− 𝜀𝛻𝐸𝑡
ミニバッチ勾配降下法の式
𝐸𝑡 =
1
𝑁𝑡
𝑛∈𝐷𝑡
𝐸𝑛 𝑁𝑡 = 𝐷𝑡
学習率の決定や収束性を向上させるのは非常に難しい課題であり、確率的勾配降下法のアルゴリズムとして
Momentum/AdaGrad/Adadelta/Adamなどが考案されている。
Section4: 勾配降下法
19
確認テスト(1/2)
Q1. 該当するソースコードを探してみよう。
A1.
𝒘(𝑡+1)
= 𝒘(𝑡)
− 𝜀𝛻𝐸 𝛻𝐸 =
𝜕𝐸
𝜕𝒘
=
𝜕𝐸
𝜕𝑤1
⋯
𝜕𝐸
𝜕𝑤𝑀
Q2. オンライン学習とは何か。2行でまとめよ。
A2. 学習データが入ってくるたびに、そのデータのみを用いてパラメータを更新して学習を進めていく方法。
一方バッチ学習では、一度に全てのデータを使用してパラメータを更新する
𝒘(𝑡+1)
= 𝒘(𝑡)
− 𝜀𝛻𝐸
𝛻𝐸 =
𝜕𝐸
𝜕𝒘
=
𝜕𝐸
𝜕𝑤1
⋯
𝜕𝐸
𝜕𝑤𝑀
Section4: 勾配降下法
20
確認テスト(2/2)
Q3. この数式の意味を図に書いて説明せよ。
A3. エポック𝑡毎にパラメータ(重み)𝒘が更新されていくことを意味する。
𝒘(𝑡+1)
= 𝒘(𝑡)
− 𝜀𝛻𝐸𝑡
𝒘(𝑡)
𝒘(𝑡+1)
𝒘(𝑡+2)
𝑡
𝑡 + 1
𝑡 + 2
エポック 重み
−𝜀𝛻𝐸𝑡
−𝜀𝛻𝐸𝑡+1
Section4: 勾配降下法
21
サンプルコードの実行
Section5:
誤差逆伝播法
22
Section5: 誤差逆伝播法
23
概要
誤差逆伝播法: 誤差関数を微分したもの(勾配)を計算するためのアルゴリズム。出力層側から微分の計算を始めて、
入力層側に向かって値を伝播させていく。連鎖律を利用して合成関数の微分を行う流れ。
計算結果から微分を逆算することで、不要な再帰的計算を避けて微分を計算することができる。
上図の通り誤差逆伝播法では微分した値を次々と掛け合わせていくことになるため、微分した値が小さいと勾配が0
に近づき学習が進まなくなる勾配消失問題が発生する恐れがある。
Section5: 誤差逆伝播法
24
確認テスト
Q1. 誤差逆伝播法では不要な再帰的処理を避けることができる。既に行った計算結果を保持しているソースコード
を抽出せよ。
A1.
Q2. 2つの空欄に該当するソースコードを探せ。
A2.
𝜕𝐸
𝜕𝒚
𝜕𝐸
𝜕𝒚
𝜕𝒚
𝜕𝒖
𝜕𝐸
𝜕𝒚
𝜕𝒚
𝜕𝒖
𝜕𝒖
𝜕𝑤𝑖𝑗
(2)
delta2 = functions.d_mean_squared_error(d, y)
delta1 = np.dot(ddelta2, W2.T) * functions.d_sigmoid(z1)
grad[‘W1’] = np.dot(x.T, delta1)

More Related Content

What's hot

PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13matsuolab
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データemonosuke
 
Word embeddings, RNN, GRU and LSTM
Word embeddings, RNN, GRU and LSTMWord embeddings, RNN, GRU and LSTM
Word embeddings, RNN, GRU and LSTMDivya Gera
 
자연어처리 소개
자연어처리 소개자연어처리 소개
자연어처리 소개Jin wook
 
Sequence Modelling with Deep Learning
Sequence Modelling with Deep LearningSequence Modelling with Deep Learning
Sequence Modelling with Deep LearningNatasha Latysheva
 
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingBERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingSeonghyun Kim
 
On the Convergence of Adam and Beyond
On the Convergence of Adam and BeyondOn the Convergence of Adam and Beyond
On the Convergence of Adam and Beyondharmonylab
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9matsuolab
 
Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...
Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...
Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...Nirav Raje
 
2019 Levenshtein Transformer
2019 Levenshtein Transformer2019 Levenshtein Transformer
2019 Levenshtein Transformer広樹 本間
 
Regularization in deep learning
Regularization in deep learningRegularization in deep learning
Regularization in deep learningVARUN KUMAR
 
Active learning lecture
Active learning lectureActive learning lecture
Active learning lectureazuring
 
ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明KCS Keio Computer Society
 
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)STAIR Lab, Chiba Institute of Technology
 
Representation Learning of Text for NLP
Representation Learning of Text for NLPRepresentation Learning of Text for NLP
Representation Learning of Text for NLPAnuj Gupta
 
ラビットチャレンジ 深層学習Day1 day2レポート
ラビットチャレンジ 深層学習Day1 day2レポートラビットチャレンジ 深層学習Day1 day2レポート
ラビットチャレンジ 深層学習Day1 day2レポートKazuyukiMasada
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2matsuolab
 
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability DistributionsDeep Learning JP
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数Deep Learning JP
 
Deep Learning for Natural Language Processing
Deep Learning for Natural Language ProcessingDeep Learning for Natural Language Processing
Deep Learning for Natural Language ProcessingDevashish Shanker
 

What's hot (20)

PRML輪読#13
PRML輪読#13PRML輪読#13
PRML輪読#13
 
パターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データパターン認識と機械学習 13章 系列データ
パターン認識と機械学習 13章 系列データ
 
Word embeddings, RNN, GRU and LSTM
Word embeddings, RNN, GRU and LSTMWord embeddings, RNN, GRU and LSTM
Word embeddings, RNN, GRU and LSTM
 
자연어처리 소개
자연어처리 소개자연어처리 소개
자연어처리 소개
 
Sequence Modelling with Deep Learning
Sequence Modelling with Deep LearningSequence Modelling with Deep Learning
Sequence Modelling with Deep Learning
 
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingBERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
 
On the Convergence of Adam and Beyond
On the Convergence of Adam and BeyondOn the Convergence of Adam and Beyond
On the Convergence of Adam and Beyond
 
PRML輪読#9
PRML輪読#9PRML輪読#9
PRML輪読#9
 
Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...
Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...
Analyzing Text Preprocessing and Feature Selection Methods for Sentiment Anal...
 
2019 Levenshtein Transformer
2019 Levenshtein Transformer2019 Levenshtein Transformer
2019 Levenshtein Transformer
 
Regularization in deep learning
Regularization in deep learningRegularization in deep learning
Regularization in deep learning
 
Active learning lecture
Active learning lectureActive learning lecture
Active learning lecture
 
ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明ハミルトニアンモンテカルロ法についての説明
ハミルトニアンモンテカルロ法についての説明
 
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
自然言語処理分野の最前線(ステアラボ人工知能シンポジウム2017)
 
Representation Learning of Text for NLP
Representation Learning of Text for NLPRepresentation Learning of Text for NLP
Representation Learning of Text for NLP
 
ラビットチャレンジ 深層学習Day1 day2レポート
ラビットチャレンジ 深層学習Day1 day2レポートラビットチャレンジ 深層学習Day1 day2レポート
ラビットチャレンジ 深層学習Day1 day2レポート
 
PRML輪読#2
PRML輪読#2PRML輪読#2
PRML輪読#2
 
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions
 
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
 
Deep Learning for Natural Language Processing
Deep Learning for Natural Language ProcessingDeep Learning for Natural Language Processing
Deep Learning for Natural Language Processing
 

Similar to ラビットチャレンジレポート 深層学習Day1

[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章Haruki Eguchi
 
mi-5. ディープラーニング
mi-5. ディープラーニングmi-5. ディープラーニング
mi-5. ディープラーニングkunihikokaneko1
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章Haruki Eguchi
 
C# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しよう
C# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しようC# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しよう
C# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しようFujio Kojima
 
ImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural NetworksImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural NetworksKouhei Nakajima
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向Yusuke Uchida
 
深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)ssuser441cb9
 
AIによる分析手法 【センサエキスポジャパン2021】
AIによる分析手法 【センサエキスポジャパン2021】AIによる分析手法 【センサエキスポジャパン2021】
AIによる分析手法 【センサエキスポジャパン2021】Koichi Masukura
 
Getting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaGetting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaTaisuke Oe
 
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)t dev
 
(2022年3月版)深層学習によるImage Classificaitonの発展
(2022年3月版)深層学習によるImage Classificaitonの発展(2022年3月版)深層学習によるImage Classificaitonの発展
(2022年3月版)深層学習によるImage Classificaitonの発展Takumi Ohkuma
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化RCCSRENKEI
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
Tutorial-DeepLearning-PCSJ-IMPS2016
Tutorial-DeepLearning-PCSJ-IMPS2016Tutorial-DeepLearning-PCSJ-IMPS2016
Tutorial-DeepLearning-PCSJ-IMPS2016Takayoshi Yamashita
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakitomoaki0705
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化marsee101
 

Similar to ラビットチャレンジレポート 深層学習Day1 (19)

[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
 
mi-5. ディープラーニング
mi-5. ディープラーニングmi-5. ディープラーニング
mi-5. ディープラーニング
 
[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章[第2版]Python機械学習プログラミング 第12章
[第2版]Python機械学習プログラミング 第12章
 
深層学習①
深層学習①深層学習①
深層学習①
 
C# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しよう
C# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しようC# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しよう
C# でニューラルネットワークをスクラッチで書いて機械学習の原理を理解しよう
 
ImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural NetworksImageNet Classification with Deep Convolutional Neural Networks
ImageNet Classification with Deep Convolutional Neural Networks
 
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
 
深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)深層学習レポート Day1 (小川成)
深層学習レポート Day1 (小川成)
 
AIによる分析手法 【センサエキスポジャパン2021】
AIによる分析手法 【センサエキスポジャパン2021】AIによる分析手法 【センサエキスポジャパン2021】
AIによる分析手法 【センサエキスポジャパン2021】
 
Getting Started with Deep Learning using Scala
Getting Started with Deep Learning using ScalaGetting Started with Deep Learning using Scala
Getting Started with Deep Learning using Scala
 
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
 
誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)誤差逆伝播法の計算(ディープラーニング)
誤差逆伝播法の計算(ディープラーニング)
 
(2022年3月版)深層学習によるImage Classificaitonの発展
(2022年3月版)深層学習によるImage Classificaitonの発展(2022年3月版)深層学習によるImage Classificaitonの発展
(2022年3月版)深層学習によるImage Classificaitonの発展
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Tutorial-DeepLearning-PCSJ-IMPS2016
Tutorial-DeepLearning-PCSJ-IMPS2016Tutorial-DeepLearning-PCSJ-IMPS2016
Tutorial-DeepLearning-PCSJ-IMPS2016
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
ono b
ono bono b
ono b
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
 

Recently uploaded

UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptyuitoakatsukijp
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024koheioishi1
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ssusere0a682
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationYukiTerazawa
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfyukisuga3
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2Tokyo Institute of Technology
 

Recently uploaded (6)

UniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScriptUniProject Workshop Make a Discord Bot with JavaScript
UniProject Workshop Make a Discord Bot with JavaScript
 
The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024The_Five_Books_Overview_Presentation_2024
The_Five_Books_Overview_Presentation_2024
 
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
ゲーム理論 BASIC 演習105 -n人囚人のジレンマモデル- #ゲーム理論 #gametheory #数学
 
TokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentationTokyoTechGraduateExaminationPresentation
TokyoTechGraduateExaminationPresentation
 
TEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdfTEAMIN Service overview for customer_20240422.pdf
TEAMIN Service overview for customer_20240422.pdf
 
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
東京工業大学 環境・社会理工学院 建築学系 大学院入学入試・進学説明会2024_v2
 

ラビットチャレンジレポート 深層学習Day1