Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.
+
漫談人工智慧
+
神經元 (neuron) 示意圖
+
神經元間的溝通之處
突觸 (synapse)
+
跳耀式傳導 (saltatory conduction)
+
動作電位 (action potential)
+
皮質柱 (Cortical Column)
相同的接受域 (receptive field)
+
聯結體 (connectome)
神經系統連接線路圖
+
長期增益作用
(long-term potentiation, LTP)
刺激輸入神經元而發生在突觸前神經元和突觸後
神經元信號傳輸產生一種持久的增強現象。
+
海柏學習法則
(Hebb’s learning rule)
突觸前神經元向突觸後神經元持續重複的刺激,
使得神經元之間的突觸強度增加。
+
人工神經元模型
+
常用激活函數 (activation function)
Sigmoid function
+
常用激活函數
Softmax function
+
常用激活函數
Hyperbolic tangent
+
常用激活函數
Rectified linear unit (ReLU)
+
感知機 (perceptron) 模型
+
多層感知機
(multi-layer perceptron)
+
卷積神經網路
(convolutional neural networks)
+
卷積神經網路
(convolutional neural networks)
+
卷積神經網路
Convolutional layer
 Depth (D): filter ( 或稱 kernel) 組數
 Stride (S): 每一次 kernel 移動的間
隔
 Zero padding (P): 每一輸入邊...
+
卷積神經網路
Convolutional layer
+
卷積神經網路
Pooling layer
+
卷積神經網路
Local receptive field
+
卷積神經網路
Weight sharing
 此處 w1 = w4 = w7, w2 = w5 = w8, w3 = w6 = w9
 具有 translational invariance 的特性
+
目標函數 (objective function) / 損
失函數 (loss function)
 最小化目標函數 J
x*
= arg min J(x)
 Mean square error
 Cross entropy
+
隨機梯度下降
(stochastic gradient descent, SGD)
+
隨機梯度下降 (SGD)
minibatchminibatch
+
倒傳遞演算法 (Back-propagation)
+
神經網路模型何其多
 Hopfield model
 Self-organizing feature map
 Grossberg Network
 Adaptive Resonance Theory
 Neocognitron
...
+
人工智慧
機器學習 傻傻分不清楚
深度學習
人工智慧的未來
Upcoming SlideShare
Loading in …5
×

漫談人工智慧:啟發自大腦科學的深度學習網路

2017/1/16 應邀演講
腦機介面控制實作社 主辦
人腦與機器的對話-漫談腦機介面與人工智慧
行政院青創基地 Taiwan Start-Up Hub

  • Login to see the comments

漫談人工智慧:啟發自大腦科學的深度學習網路

  1. 1. + 漫談人工智慧
  2. 2. + 神經元 (neuron) 示意圖
  3. 3. + 神經元間的溝通之處 突觸 (synapse)
  4. 4. + 跳耀式傳導 (saltatory conduction)
  5. 5. + 動作電位 (action potential)
  6. 6. + 皮質柱 (Cortical Column) 相同的接受域 (receptive field)
  7. 7. + 聯結體 (connectome) 神經系統連接線路圖
  8. 8. + 長期增益作用 (long-term potentiation, LTP) 刺激輸入神經元而發生在突觸前神經元和突觸後 神經元信號傳輸產生一種持久的增強現象。
  9. 9. + 海柏學習法則 (Hebb’s learning rule) 突觸前神經元向突觸後神經元持續重複的刺激, 使得神經元之間的突觸強度增加。
  10. 10. + 人工神經元模型
  11. 11. + 常用激活函數 (activation function) Sigmoid function
  12. 12. + 常用激活函數 Softmax function
  13. 13. + 常用激活函數 Hyperbolic tangent
  14. 14. + 常用激活函數 Rectified linear unit (ReLU)
  15. 15. + 感知機 (perceptron) 模型
  16. 16. + 多層感知機 (multi-layer perceptron)
  17. 17. + 卷積神經網路 (convolutional neural networks)
  18. 18. + 卷積神經網路 (convolutional neural networks)
  19. 19. + 卷積神經網路 Convolutional layer  Depth (D): filter ( 或稱 kernel) 組數  Stride (S): 每一次 kernel 移動的間 隔  Zero padding (P): 每一輸入邊緣填 0 的寬度 若以 W 表示輸入寬度大小, F 表示 filter 寬度大小, 卷積運算後 feature map 的寬度大小公式為: D 個 [(W - F + 2P) / S] + 1
  20. 20. + 卷積神經網路 Convolutional layer
  21. 21. + 卷積神經網路 Pooling layer
  22. 22. + 卷積神經網路 Local receptive field
  23. 23. + 卷積神經網路 Weight sharing  此處 w1 = w4 = w7, w2 = w5 = w8, w3 = w6 = w9  具有 translational invariance 的特性
  24. 24. + 目標函數 (objective function) / 損 失函數 (loss function)  最小化目標函數 J x* = arg min J(x)  Mean square error  Cross entropy
  25. 25. + 隨機梯度下降 (stochastic gradient descent, SGD)
  26. 26. + 隨機梯度下降 (SGD) minibatchminibatch
  27. 27. + 倒傳遞演算法 (Back-propagation)
  28. 28. + 神經網路模型何其多  Hopfield model  Self-organizing feature map  Grossberg Network  Adaptive Resonance Theory  Neocognitron  Hierarchical temporal memory  Recurrent neural networks  Spiking neural networks  ……
  29. 29. + 人工智慧 機器學習 傻傻分不清楚 深度學習 人工智慧的未來

×