Your SlideShare is downloading. ×
  • Like
Exposicion
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Now you can save presentations on your phone or tablet

Available for both IPhone and Android

Text the download link to your phone

Standard text messaging rates apply

Exposicion

  • 1,593 views
Published

 

Published in Technology , Spiritual
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
1,593
On SlideShare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
64
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. Partes de una Red Neuronal
    Figura#1: Partes de una red Neuronal [1]
  • 2. Red Neuronal
  • 3. El Perceptròn
    El perceptròn modela el comportamiento de una neurona biológica.
    Trabaja con funciones de activación.
  • 4. Tipos de Perceptrones
    Existen varios tipos de perceptrones, dependiendo del número de capas que tenga.
    1.- Perceptròn Simple (De dos capas):
    Corresponde a una capa de entrada con neuronas lineales y una salida con función de activación tipo escalón.
    Aplicaciones:
    Formulas trigonométricas, cálculo , ecuaciones.
    2.- Perceptrón Múltiple (De más de 4 capas)
    Es un perceptròn que puede generar regiones de decisión bastante complejas.
    Aplicaciones:
    Puede ser utilizado para la predicción de una serie de datos en el tiempo, como cambios financieros, reconocimiento de caracteres, voz, facial, etc.
  • 5. Perceptròn Simple
    El perceptrón simple es una red que consta de dos capas de neuronas una de entrada y una de salida.
    Ajusta los pesos de la neurona a fin de obtener la discriminación de datos de entrada en clases.
    Operación del Perceptròn Simple (Oi):
    g = función de activación
    W= pesos de neurona
  • 6. Ejemplo: Si denotamos por X1 y X2 a las 2 neuronas de entrada, la operación efectuada por el perceptròn simple consiste en:
    Modificar pesos de las conexiones de las neuronas:
    n = tasa de aprendizaje
    t= salida deseada
    x= entrada del perceptòn
  • 7. Perceptròn Multicapa
    El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, esto le permite resolver problemas que no son linealmente separables.
    Figura#4: Arquitectura de un perceptròn multicapa [4]
  • 8. Se suele entrenar por medio de un algoritmo de retro propagación de errores o BP (Back Propagation).
    La minimización del error se llevará a cabo por el descenso del gradiente.
    Entre otras técnicas para minimizar el error esta el uso de regresión lineal (Técnicas estadísticas)
  • 9. Algoritmo Backpropagation
    Se usa en el proceso de aprendizaje de las redes neuronales multicapa.
    Utiliza aprendizaje supervisado.
    Utiliza técnicas de calculo, matemáticas y estadísticas para minimizar el error.
    Calcular los errores de cada neurona en las capas anteriores a la capa de salida.
    Descripción del proceso del Algoritmo Backpropagation.
    Figura#1: Red neuronal de 3 capas (2 entradas y una salida)
  • 10. Figura#2: Asignación de los pesos de entrada de la función de activación.
    Figura#3: Propagación de las señales hacia la capa de entrada.
    Proceso para el Primer Nodo
  • 11. Proceso para el segundo nodo
    Proceso para el tercer nodo
  • 12. Figura#4:Propagación de las señales de entrada por la capa oculta
    Proceso para el cuarto nodo de la capa oculta
    Proceso para el quinto nodo de la capa oculta
  • 13. Figura#5: Propagación de las señales por la capa de salida.
    PROCESO PARA CALCULAR EL ERROR
    Figura#6: Aplicación del algoritmo backpropagation para calcular el error de todas las neuronas. Propagación de las señales del error hacia la capa de atrás
  • 14.
  • 15.
  • 16. Referencias:
    PDF
    [1]Casali A., Godo L. and Sierra C. Graded BDI Models For Agent Architectures. Leite J. and Torroni P. (Eds.) CLIMA V, LNAI 3487, pp. 126-143, Springer-Verlag, Berling Heidelberg, 2005.
    [2]Casali A., Godo L. and Sierra C. Modelling Travel Assistant Agents: a graded BDI Approach. Proceedings of the IFIP-AI, WCC, Volume 217, Artificial Intelligence in Theory and Practice, Max Bramer (ed.), Sringer,pp. 415-424, 2006.
    SitiosWeb
    [3] http://grad.uprm.edu/tesis/dinosrojas.pdf
    [4] http://www.monografias.com/trabajos12/inteartf/inteartf2.shtml
  • 17. 17