Download free for 30 days
Sign in
Upload
Language (EN)
Support
Business
Mobile
Social Media
Marketing
Technology
Art & Photos
Career
Design
Education
Presentations & Public Speaking
Government & Nonprofit
Healthcare
Internet
Law
Leadership & Management
Automotive
Engineering
Software
Recruiting & HR
Retail
Sales
Services
Science
Small Business & Entrepreneurship
Food
Environment
Economy & Finance
Data & Analytics
Investor Relations
Sports
Spiritual
News & Politics
Travel
Self Improvement
Real Estate
Entertainment & Humor
Health & Medicine
Devices & Hardware
Lifestyle
Change Language
Language
English
Español
Português
Français
Deutsche
Cancel
Save
Submit search
EN
Uploaded by
naoto moriyama
PPTX, PDF
20,601 views
ニューラルネットワーク入門
ニューラルネットワークの基礎であるパーセプトロンから、勾配計算までの概念をまとめました。
Technology
◦
Read more
13
Save
Share
Embed
Embed presentation
Download
Downloaded 125 times
1
/ 30
2
/ 30
3
/ 30
4
/ 30
5
/ 30
6
/ 30
7
/ 30
8
/ 30
9
/ 30
10
/ 30
11
/ 30
12
/ 30
13
/ 30
14
/ 30
15
/ 30
16
/ 30
Most read
17
/ 30
18
/ 30
19
/ 30
20
/ 30
21
/ 30
22
/ 30
23
/ 30
Most read
24
/ 30
25
/ 30
26
/ 30
27
/ 30
28
/ 30
29
/ 30
30
/ 30
More Related Content
PDF
組合せ最適化入門:線形計画から整数計画まで
by
Shunji Umetani
PDF
【メタサーベイ】Neural Fields
by
cvpaper. challenge
PDF
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
by
Kenshi Abe
PPTX
強化学習における好奇心
by
Shota Imai
PDF
多様な強化学習の概念と課題認識
by
佑 甲野
PDF
機械学習のためのベイズ最適化入門
by
hoxo_m
PPTX
強化学習2章
by
hiroki yamaoka
PDF
方策勾配型強化学習の基礎と応用
by
Ryo Iwaki
組合せ最適化入門:線形計画から整数計画まで
by
Shunji Umetani
【メタサーベイ】Neural Fields
by
cvpaper. challenge
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
by
Kenshi Abe
強化学習における好奇心
by
Shota Imai
多様な強化学習の概念と課題認識
by
佑 甲野
機械学習のためのベイズ最適化入門
by
hoxo_m
強化学習2章
by
hiroki yamaoka
方策勾配型強化学習の基礎と応用
by
Ryo Iwaki
What's hot
PDF
機械学習デザインパターンおよび機械学習システムの品質保証の取り組み
by
Hironori Washizaki
PPTX
学習時に使ってはいないデータの混入「リーケージを避ける」
by
西岡 賢一郎
PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
by
tmtm otm
PDF
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
by
The Whole Brain Architecture Initiative
PDF
Point net
by
Fujimoto Keisuke
PPTX
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
by
Deep Learning JP
PDF
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
PPTX
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
PPTX
Reinforcement Learning(方策改善定理)
by
Masanori Yamada
PDF
Skip Connection まとめ(Neural Network)
by
Yamato OKAMOTO
PPTX
ニューラルネットワークの理論
by
Kazuma Komiya
PDF
計算論的学習理論入門 -PAC学習とかVC次元とか-
by
sleepy_yoshi
PDF
[DL輪読会]Control as Inferenceと発展
by
Deep Learning JP
PDF
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
PDF
IIBMP2016 深層生成モデルによる表現学習
by
Preferred Networks
PDF
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
by
佑 甲野
PPTX
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
by
Deep Learning JP
PPTX
強化学習アルゴリズムPPOの解説と実験
by
克海 納谷
PPTX
Random Forest による分類
by
Ken'ichi Matsui
PPTX
猫でも分かるVariational AutoEncoder
by
Sho Tatsuno
機械学習デザインパターンおよび機械学習システムの品質保証の取り組み
by
Hironori Washizaki
学習時に使ってはいないデータの混入「リーケージを避ける」
by
西岡 賢一郎
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
by
tmtm otm
第7回WBAシンポジウム:全脳確率的生成モデル(WB-PGM)〜世界モデルと推論に基づく汎用人工知能に向けて
by
The Whole Brain Architecture Initiative
Point net
by
Fujimoto Keisuke
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
by
Deep Learning JP
機械学習による統計的実験計画(ベイズ最適化を中心に)
by
Kota Matsui
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
by
Yusuke Uchida
Reinforcement Learning(方策改善定理)
by
Masanori Yamada
Skip Connection まとめ(Neural Network)
by
Yamato OKAMOTO
ニューラルネットワークの理論
by
Kazuma Komiya
計算論的学習理論入門 -PAC学習とかVC次元とか-
by
sleepy_yoshi
[DL輪読会]Control as Inferenceと発展
by
Deep Learning JP
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
by
Kenyu Uehara
IIBMP2016 深層生成モデルによる表現学習
by
Preferred Networks
NIPS2017読み会@PFN: Hierarchical Reinforcement Learning + α
by
佑 甲野
[DL輪読会]Pixel2Mesh: Generating 3D Mesh Models from Single RGB Images
by
Deep Learning JP
強化学習アルゴリズムPPOの解説と実験
by
克海 納谷
Random Forest による分類
by
Ken'ichi Matsui
猫でも分かるVariational AutoEncoder
by
Sho Tatsuno
Similar to ニューラルネットワーク入門
PPTX
Convolutionl Neural Network 入門
by
maruyama097
PPTX
Neural Network + Tensorflow 入門講座
by
maruyama097
PPTX
ニューラルネットワークについて
by
Anna Nakatsuji
PPTX
ディープラーニング基礎.pptx
by
norimatsu5
PPTX
1.単純パーセプトロンと学習アルゴリズム
by
浩気 西山
PDF
20150310 第1回 ディープラーニング勉強会
by
哲朗 島田
PDF
20150803.山口大学集中講義
by
Hayaru SHOUNO
PDF
20140705.西野研セミナー
by
Hayaru SHOUNO
PDF
2019_G検定対策_数学講座01_ディープラーニングでの基礎計算問題
by
Akihiro ITO
PPT
17ゼロから作るディープラーニング2章パーセプトロン
by
Keiichirou Miyamoto
PDF
Tokyo webmining統計学部 第2回
by
Issei Kurahashi
PDF
A yet another brief introduction to neural networks
by
Yuta Kikuchi
PDF
Bda deep learning from scratch perceptron
by
Hikoto Iseda
PDF
Deep Learning - Basic
by
Shinobu Kinjo
PDF
20141208.名大セミナー
by
Hayaru SHOUNO
PPTX
機械学習勉強会2017/2/19(nn基礎)
by
Koki Natsume
PDF
primers neural networks
by
Shin Asakawa
PPTX
ニューラルネットワークの基礎@ブログ用
by
Yoshihiro Takahashi
PDF
cnnstudy
by
AsukaYagami
PPTX
ニューラルネットワークの紹介
by
振荟 王
Convolutionl Neural Network 入門
by
maruyama097
Neural Network + Tensorflow 入門講座
by
maruyama097
ニューラルネットワークについて
by
Anna Nakatsuji
ディープラーニング基礎.pptx
by
norimatsu5
1.単純パーセプトロンと学習アルゴリズム
by
浩気 西山
20150310 第1回 ディープラーニング勉強会
by
哲朗 島田
20150803.山口大学集中講義
by
Hayaru SHOUNO
20140705.西野研セミナー
by
Hayaru SHOUNO
2019_G検定対策_数学講座01_ディープラーニングでの基礎計算問題
by
Akihiro ITO
17ゼロから作るディープラーニング2章パーセプトロン
by
Keiichirou Miyamoto
Tokyo webmining統計学部 第2回
by
Issei Kurahashi
A yet another brief introduction to neural networks
by
Yuta Kikuchi
Bda deep learning from scratch perceptron
by
Hikoto Iseda
Deep Learning - Basic
by
Shinobu Kinjo
20141208.名大セミナー
by
Hayaru SHOUNO
機械学習勉強会2017/2/19(nn基礎)
by
Koki Natsume
primers neural networks
by
Shin Asakawa
ニューラルネットワークの基礎@ブログ用
by
Yoshihiro Takahashi
cnnstudy
by
AsukaYagami
ニューラルネットワークの紹介
by
振荟 王
More from naoto moriyama
PPTX
ニューラルチューリングマシン入門
by
naoto moriyama
PPTX
自然言語処理 Word2vec
by
naoto moriyama
PPTX
自然言語処理
by
naoto moriyama
PPTX
Deep forest
by
naoto moriyama
PDF
論文紹介: Differentiable reasoning over a virtual knowledge base
by
naoto moriyama
PPTX
Differentiable neural conputers
by
naoto moriyama
PPTX
最近の自然言語処理
by
naoto moriyama
PPTX
Dilated rnn
by
naoto moriyama
ニューラルチューリングマシン入門
by
naoto moriyama
自然言語処理 Word2vec
by
naoto moriyama
自然言語処理
by
naoto moriyama
Deep forest
by
naoto moriyama
論文紹介: Differentiable reasoning over a virtual knowledge base
by
naoto moriyama
Differentiable neural conputers
by
naoto moriyama
最近の自然言語処理
by
naoto moriyama
Dilated rnn
by
naoto moriyama
ニューラルネットワーク入門
1.
ニューラルネットワーク入門 〜パーセプトロンから勾配降下法まで〜 森山直人
2.
パーセプトロン x z 人間の思考(脳)を構築する最小計算ユニッ トであるパーセプトロンを考える
3.
パーセプトロン 何かを入力 ゴニョゴニョ して 何かを出力 x z
4.
一般的な動作原理 入力が一定に 達すると そこで出力する x z
5.
バイアス 入力が一定に 達すると 出力する これをバイアスという bx z
6.
複数入力 入力は複数になる ※でも出力は1つ x2 z x1 x3
7.
複数入力 ここにもバイアスはある bx2 x1 x3
8.
重み b 入力の重みを変えてみる (太さが重みの度合い) x2 x1 x3
9.
重み b 入力の重みを変えてみる (太さが重みの度合い) x2 x1 x3 w1 w2 w3
10.
総入力 bx2・w2 入力の合計とバイアスを比較 ⇒出力 x3・w3 x1・w1
11.
活性化関数 x・w z b 出力の値をコントロールしたい Why? ただ一定の閾値を超えると発火するのでは、線 形分離しかできない 非線形性を持たすことで、表現の自由度を獲得 したい 多層になった場合にいろいろ都合が良い(後 述)
12.
活性化関数 x・w z b ここを関数化する
13.
活性化関数 x・w z b ここを関数化する ⇒ z
= f(x・w + b)
14.
活性化関数 ⇒ z =
f(x・w + b) この f() の中身の計算によって、出力されるzの値が変わってくる • シグモイド ⇒ 0 ~ 1 • 双曲線正接関数 ⇒ -1 ~ 1 • 正規化線形関数 ⇒ 0 ~ ∞
15.
ニューラルネットワーク 前述したパーセプトロンが多数積み重なったもの 出力は複数あるが、すべて同じ出力のコピー 入力層 隠れ層 出力層
16.
ニューラルネットワーク 入力層 隠れ層 出力層 活性化関数と誤差関数は基本的に単一 パーセプトロンと同じ考え ・活性化関数: ∟各層の各ニューロンごとに活性化関数を持つ ∟異なる層で異なる誤差関数を持つことができる ・誤差関数 ∟出力層と正解データ間にて誤差関数を計算 ∟後述の誤差逆伝搬を用いて、各ニューロンの微分
17.
f() ニューラルネットワークのフロー x x*w w x*w+b b 入力 重み付加
バイアス計算 活性化関数
18.
誤差 ここまでは、パーセプトロンの動作について考えてきたが、その パーセプトロンが正しく機能しているかを判断する必要がある そもそも、パーセプトロンを使う理由はその計算によって、意図す る値を出力させること 誤った値が出た場合は、正しい値を出力させるべく、本来出力させ たい値と比較させ、ずれた度合いに応じて、パーセプトロン内の値 を修正する必要がある
19.
誤差 修正箇所は重みとバイアス x・w z b
20.
誤差関数 bx・w z y パーセプトロンの計算結果 正しい値 ここの差分を 計算すれば良い
21.
誤差関数 bx・w z y パーセプトロンの計算結果 正しい値 E(w)
= ‖ y - f(w・x + b) ‖ 誤差関数 正解 活性化関数 入力値 2 (絶対値を取る)
22.
誤差関数 E(w) = ‖
y – f(w・x + b) ‖ 誤差関数 正解 活性化関数 入力値 この誤差関数が小さいほど、正解データと近い値が 出力されたことになる ⇒良い重みとバイアスが設定でいていることになる 2
23.
勾配降下 誤差を小さくしたい 誤差関数の最小化を図る
24.
勾配降下 E(w) w 誤差が最小の値 このwの値を知りたい
25.
勾配降下 E(w) w 誤差が最小の値 このwの値を知りたい 今こことする
26.
勾配降下 E(w) w 誤差が最小の値 このwの値を知りたい 少しずつ誤差が小さくなるよう、 wを修正していく
27.
勾配降下 E(w) w 誤差が最小の値 このwの値を知りたい 修正し過ぎると、意図しない 位置まで行ってしまう
28.
勾配降下 E(w) w 誤差が最小の値 このwの値を知りたい この修正度合いを決めるのが とても重要
29.
勾配降下法 E(w) w 誤差が最小の値 このwの値を知りたい この修正度合いを決めるのが とても重要 この「修正度合い」は一般的に 学習率と呼ばれる。 この学習率は様々なアルゴリズム によって計算される。 例) ・AdaGrad ・RMSProp ・AdaDelta ・Adam
30.
次回はバッチ学習から解説します・・・
Download