Nedes Neuronales Artificiales
Upcoming SlideShare
Loading in...5
×
 

Nedes Neuronales Artificiales

on

  • 1,111 views

Trabajo de Redes Neuronales artificiales

Trabajo de Redes Neuronales artificiales

Statistics

Views

Total Views
1,111
Views on SlideShare
1,111
Embed Views
0

Actions

Likes
0
Downloads
41
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Nedes Neuronales Artificiales Nedes Neuronales Artificiales Document Transcript

  • República Bolivariana de VenezuelaMinisterio del Poder Popular para la Defensa Universidad Nacional Experimental De la Fuerza Armada Nacional Bolivariana Núcleo - Lara. INTELIGENCIA ARTIFICIAL (Red Neuronal Artificial) Integrantes: Querales, Yaneth Huerta, Yuenni Pérez, Yaina Principal, Yasmira Terán, Yandry Profesor: Jesús Contreras Sección: 8N2IS Barquisimeto, Diciembre 2011
  • INTRODUCCION El presente enfoque es teórico práctico, de manera que se puedalograr su total comprensión. Se presenta el concepto de Redes neuronalesque es uno de esos términos de gran auge en la era de la tecnología. Lamayoría de la gente los ha oído, pero pocos saben lo que significan. Estetrabajo de investigación está diseñado para iniciar al lector en las redesneuronales, su funcionamiento, estructura genérica, terminología, tipos yusos. Desde hace algunos años, algunos investigadores han estado creandomodelos, tanto en hardware como en software, que interpretan la actividadcerebral en un esfuerzo por producir una forma de inteligencia artificial. Muchos modelos teóricos o paradigmas, datan desde los años 50s.Muchos de ellos tenían aplicaciones limitadas en el mundo real, teniendocomo consecuencia que las Redes Neuronales Artificiales (RNA)permanecieran en la obscuridad por décadas. Las RNA están compuestas de un gran número elementos deprocesamiento altamente interconectados (Neuronas) trabajando al mismotiempo para la solución de problemas específicos. Las RNA, tal como laspersonas, aprenden de la experiencia. En cualquier caso, se trata de una nueva forma de computación quees capaz de manejar las imprecisiones e incertidumbres que aparecencuando se trata de resolver problemas relacionados con el mundo real(reconocimiento de formas, toma de decisiones, etc.), ofreciendo solucionesrobustas y de fácil implementación.
  • Las RNA están compuestas de muchos elementos sencillos queoperan en paralelo, el diseño de la red está determinado mayormente por lasconexiones entre sus elementos, entre los cuales se encuentran los pesossinápticos que son el factor de aprendizaje de la neurona, las entradas queserán los valores a procesar, un umbral que viene a ser el sumario donde seprocesan las entradas y los pesos. Aunado a ello se mencionan las fórmulasmatemáticas que sirven para resolver RNA, entre ellas están la función deactivación y la de reajuste de pesos. A través de los parámetrosmencionados Las RNA son entrenadas para la realización de funcionescomplejas en variados campos de aplicación. Hoy en día pueden serentrenadas para la solución de problemas que son difíciles para sistemascomputacionales comunes o para el ser humano. Finalmente, la esencia de este trabajo se ve reflejada en la necesidadde conocer las redes neuronales artificiales, su implementación y como llegara implementar una RNA en algún caso real, teniendo como objetivo que ellector quede totalmente satisfecho con la información suministrada.
  • Conceptos básicos que se deben tener en cuenta:• Red: conjunto de entidades (objetos, personas, etc.) conectadas entre sí.• Neurona: Célula diferenciada perteneciente al sistema nervioso, capaz de propagar el impulso nervioso a otra neurona. Está compuesta por una zona de recepción, las dendritas, y otra de emisión o salida, el axón o neurita: se dice que a partir de cierta edad se acelera el proceso de pérdida de neuronas.• Artificial: Que no ha sido hecho por la naturaleza, sino por el ser humano u otro ser inteligente. red neuronal Es un sistema compuesto por un gran número de elementos básicos (Neuronas), agrupados en capas y que se encuentran altamente interconectadas (sinapsis). REDES NEURONALES BIOLOGICAS (RNB) Red Neuronal Biológica Está compuesta por un conjunto de neuronas de entrada (sensores) conectados a una compleja red de neuronas "calculadoras" (neuronas ocultas), las cuales, a su vez, están conectadas a las neuronas de salidas que controlan. Una neurona es una célula viva, y como tal, contiene los mismos elementos que forman parte de todas las células biológicas, además, de poseer elementos característicos que la diferencian. En general una neurona consta de un cuerpo celular más o menos esférico de 5 a 10 micras de diámetro, del que sale una rama principal el axón, y varias ramas más
  • cortas denominadas dendritas. A su vez el axón puede producir ramas entorno a su punto de arranque, y con frecuencia se ramifica extensamentecerca de su extremo.  Soma o cuerpo celular: corresponde a la parte más voluminosa de la neurona. Aquí se puede observar una estructura esférica llamada núcleo. Éste contiene la información que dirige la actividad de la neurona.  Dendritas: son prolongaciones cortas que se originan del soma neural. Su función es recibir impulsos de otras neuronas y enviarlas hasta el soma de la neurona.  Axón: es una prolongación única y larga. En algunas ocasiones, puede medir hasta un metro de longitud. Su función es sacar el impulso desde el soma neuronal y conducirlo hasta otro lugar del sistema. REDES NEURONALES ARTIFICIALES (RNA) Es una rama de la Inteligencia Artificial es "la disciplina científica ytécnica que se ocupa del estudio de las ideas que permiten ser inteligentes alos ordenadores" (definición de H. Winston).Qué son las RNA Una RNA es herramienta diseñada para emular la forma en que elcerebro humano funciona.
  • Una RNA es parecida al cerebro en dos aspectos:  El conocimiento es adquirido a través de un proceso de aprendizaje.  La fuerza de conexión interneuronas, conocida como pesos sinápticos, son usados para el almacenamiento del conocimiento Las RNA son un método de resolver problemas, de forma individual ocombinadas con otros métodos, para aquellas tareas de clasificación,identificación, diagnóstico, optimización o predicción en las que el balancedatos/conocimiento se inclina hacia los datos y donde, adicionalmente,puede haber la necesidad de aprendizaje en tiempo de ejecución y de ciertatolerancia a fallos. En estos casos las RNAs se adaptan dinámicamentereajustando constantemente los “pesos” de sus interconexiones. Las RNA se basan en la analogía que existe en el comportamiento yfunción del cerebro humano, en particular del sistema nervioso, el cual estácompuesto por redes de neuronas biológicas que poseen bajas capacidadesde procesamiento, sin embargo toda su capacidad cognitiva se sustenta enla conectividad de éstas. La unidad de una red neuronal artificial es un procesador elementalllamado neurona que posee la capacidad limitada de calcular, en general,una suma ponderada de sus entradas y luego le aplica una función deactivación para obtener una señal que será transmitida a la próxima neurona.Estas neuronas artificiales se agrupan en capas o niveles y poseen un altogrado de conectividad entre ellas, conectividad que es ponderada por lospesos. A través de un algoritmo de aprendizaje supervisado o no
  • supervisado, las RNA ajustan su arquitectura y parámetros de manera depoder minimizar alguna función de error que indique el grado de ajuste a losdatos y la capacidad de generalización de las RNA. Las redes neuronales como su nombre lo indica pretenden imitar apequeñísima escala la forma de funcionamiento de las neuronas que formanel cerebro humano. Todo el desarrollo de las redes neuronales tiene muchoque ver con la neurofisiología, no en vano se trata de imitar a una neuronahumana con la mayor exactitud posible. Entre los pioneros en el modeladode neuronas se encuentra Warren McCulloch y Walter Pitts. Estos dosinvestigadores propusieron un modelo matemático de neurona. En estemodelo cada neurona estaba dotada de un conjunto de entradas y salidas.Cada entrada está afectada por un peso. La activación de la neurona secalcula mediante la suma de los productos de cada entrada y la salida es unafunción de esta activación. La principal clave de este sistema se encuentraen los pesos de las diferentes entradas. Como se ha visto, las entradas sonmodificadas por el peso y las salidas son función de estas modificaciones.Esto nos lleva a concluir que los pesos influyen de forma decisiva en la saliday por lo tanto pueden ser utilizados para controlar la salida que se desea. En realidad cuando se tienen interconectadas muchas de estasneuronas artificiales lo que se hace inicialmente es entrenar el sistema. Elentrenamiento consiste en aplicar unas entradas determinadas a la red yobservar la salida que produce. Si la salida que produce no se adecua a laque se esperaba, se ajustan los pesos de cada neurona parainteractivamente ir obteniendo las respuestas adecuadas del sistema. A lared se le somete a varios ejemplos representativos, de forma que mediantela modificación de los pesos de cada neurona , la red va "aprendiendo".
  • ELEMENTOS BÁSICOS DE LA RNA:  Pesos sinápticos (wij): ligas de conexión entre los datos de entrada y el sumador. Si estas son positivas entonces son excitatorias, de lo contrario son inhibitorias.  Sumador: concentra la información como una combinación lineal de los pesos sinápticos y de la entrada. Conocido como la regla de propagación de la suma ponderada de las entradas multiplicadas por los pesos  Umbral: disminuye la entrada (obtenida en el sumador) a la función de la función de activación.  Función de activación: limita la amplitud de la respuesta de la neurona al intervalo [0; 1] o [-1; 1]. BENEFICIOS Y VENTAJAS DE USAR RNA1. Generalización: Capacidad para producir respuestas razonables a estímulos no presentados durante su entrenamiento.2. Adaptabilidad: La red puede ser construida para adaptar sus pesos sinápticos al medio ambiente (re-entrenar). Es una de las características más atractivas de las redes neuronales, es la capacidad de aprender a realizar tareas basadas en un entrenamiento o una experiencia inicial.
  • 3. Auto organización: Las redes neuronales usan su capacidad de aprendizaje adaptativo para organizar la información que reciben durante el aprendizaje y/o la operación. Una RNA puede crear su propia organización o representación de la información que recibe mediante una etapa de aprendizaje. Esta auto organización provoca la facultad de las redes neuronales de responder apropiadamente cuando se les presentan datos o situaciones a los que no habían sido expuestas anteriormente. 4. Robusta: Por su carácter distributivo, una red maneja muy bien daños a su estructura (ruido). 5. Complejidad: Puede capturar comportamiento complejo que no es posible con métodos tradicionales. 6. No-parametrito: No hace suposiciones. 7. Tolerancia a Fallos: Comparados con los sistemas computacionales tradicionales, los cuales pierden su funcionalidad en cuanto sufren un pequeño error de memoria, en las redes neuronales, si se produce un fallo en un pequeño número de neuronas, aunque el comportamiento del sistema se ve influenciado, sin embargo no sufre una caída repentina. Hay dos aspectos distintos respecto a la tolerancia a fallos: primero, lasredes pueden aprender a reconocer patrones con ruido, distorsionados, o
  • incompleta. Segundo pueden seguir realizando su función (con ciertadegradación) aunque se destruya parte de la red. La razón por la que las redes neuronales son tolerantes a fallos es quetienen su información distribuida en las conexiones entre neuronas,existiendo cierto grado de redundancia en ese tipo de almacenamiento, adiferencia de la mayoría de los ordenadores algorítmicos y sistemas derecuperación de datos que almacenan cada pieza de información en unestado único, localizado y direccionable. 8. Operación en Tiempo Real: Los computadores neuronales pueden ser realizados en paralelo, y se diseñan y fabrican máquinas con hardware especial para obtener esta capacidad. 9. Fácil inserción dentro de la tecnología existente: Debido a que una red puede ser rápidamente entrenada, comprobada, verificada y trasladada a una implementación hardware de bajo costo, es fácil insertar RNA para aplicaciones específicas dentro de sistemas existentes (chips, por ejemplo). De esta manera, las redes neuronales se pueden utilizar para mejorar sistemas de forma incremental, y cada paso puede ser evaluado FUNCIONES EN EL MODELO DE NEURONA ARTIFICIAL El modelo de neurona artificial, modela la neurona como una serie de funciones que se componen entre ellas siendo los resultados unas los parámetros de otras, así la función de ponderación hace uso de los valores que le llegan de las entradas y los pesos de las sinapsis
  • y la función de activación toma este valor para transformarlo en el estado de la neuronas mediante la interacción de estas funciones se procesa la información.ALGUNAS DE LAS APLICACIONES MÁS DESTACADAS DE LAS RNA SON:  Reconocimiento de patrones de clasificación:  Reconocimiento de voz, de caracteres manuscritos,...  Análisis y reconocimiento de imágenes, formas,...  Diagnóstico clínico.  Escritura. La red es presentada con muchos ejemplos de un patrón hasta “guardar” el patrón, luego al ser presentado una versión con ruido esta es capaz de reconocer el patrón.  Asociación de patrones: •Clasificación: una la red es entrenada con ejemplos de clasificación conocida.  Aproximación de funciones. Identificación, problemas inversos.  Control: se conoce una señal de referencia y el objetivo es ajustar los parámetros libres para seguir la salida deseada.  Filtro: son útiles en predicciones.  Análisis de series temporales y predicción:  Modelos meteorológicos.  Predicción del comportamiento.
  •  Predicción de series temporales.  Robótica  Entre otras.COMPARACIÓN ENTRE REDES NEURONALES BIOLÓGICAS Y REDES NEURONALES ARTIFICIALES La neurona artificial como símil de la neurona biológica: Las neuronas artificiales son modelos que tratan de simular elcomportamiento de las neuronas biológicas. Cada neurona se representacomo una unidad de proceso que forma parte de una entidad mayor, la redneuronal. Como se ve la ilustración, dicha unidad de proceso consta de unaserie de Entradas Xi, que equivalen a las dendritas de donde reciben laestimulación, ponderadas por unos pesos Wi , que representan como losimpulsos entrantes son evaluados y se combinan con la función de red quenos dará el nivel de potencial de la neurona. La salida de la función de red es evaluada en la función de activaciónque da lugar a la salida de la unidad de proceso. Como se puede ver en la siguiente ilustración, La neurona artificial secomporta como la neurona biológica pero de una forma muy simplificada.
  • Por las entradas Xi llegan unos valores que pueden ser enteros, realeso binarios. Estos valores equivalen a las señales que enviarían otrasneuronas a la nuestra a través de las dendritas. Los pesos que hay en las sinapsis Wi, equivaldrían en la neuronabiológica a los mecanismos que existen en las sinapsis para transmitir laseñal. De forma que la unión de estos valores (Xi y Wi) equivalen a lasseñales químicas inhibitorias y excitadoras que se dan en las sinapsis y queinducen a la neurona a cambiar su comportamiento. Estos valores son la entrada de la función de ponderación o red queconvierte estos valores en uno solo llamado típicamente el potencial que enla neurona biológica equivaldría al total de las señales que le llegan a laneurona por sus dendritas. La función de ponderación suele ser una la sumaponderada de las entradas y los pesos sinápticos. La salida de función de ponderación llega a la función de activaciónque transforma este valor en otro en el dominio que trabajen las salidas delas neuronas. Suele ser una función no lineal como la función paso osigmoidea aunque también se usa funciones lineales
  • El valor de salida cumpliría la función de la tasa de disparo en lasneuronasbiológicas. Suele ser la función identidad aunque hay sistemas en que no esasí pero estos sistemas sobrepasan el nivel de esta introducción así que nosquedamos con lo más sencillo suponemos que la salida devuelve la identidad
  • Cuadro Comparativo NEURONAS BIOLÓGICAS NEURONAS ARTIFICIALESRed neuronal biológica, cúmulo de Red neuronal artificial, modelosneuronas físicamente interconectadas matemáticos y computacionales de unacuya actividad ayuda a definir un circuitored neuronal empleados en estadística,reconocible en el sistema nervioso. psicología cognitiva, e inteligencia artificial.Conexiones sinápticas. (sinapsis: Conexiones ponderadas. (pesos +conexión dendrita y axón de una neurona entradas)y otra)Efectividad de la sinapsis. (mecanismos Peso de las conexiones. (Wi)que transmiten señal (conexión con otraneurona)Efecto excitador o inhibidor de una Signo del peso de una excitación.conexión. peso-entrada (+) = sinapsis excitadora(estimula la neurona para que se peso-entrada (-) = sinapsis inhibidorarelacione con las demás)Efecto combinado de la sinapsis Función de propagación o de red (núcleo) (realiza procesamiento de pesos y entradas)Activación -> tasa de disparo Función de activación -> salida (axón) PERCEPTRÓN SIMPLE El Perceptrón es un tipo de red neuronal artificial desarrollado por Frank Rosenblatt, véase Perceptrón multicapa, también puede entenderse como perceptrón la neurona artificial y unidad básica de inferencia en forma de discriminador lineal, que constituye este modelo de red neuronal artificial, esto debido a que el perceptrón puede usarse como neurona dentro de un perceptrón más grande u otro tipo de red neuronal artificial.
  • Perceptrón simple: El perceptrón usa una matriz para representar las redesneuronales y es un discriminador terciario que traza su entrada x (un vectorbinario) a un único valor de salida f(x) (un solo valor binario) a través dedicha matriz. Donde w es un vector de pesos reales y es el producto punto (quecomputa una suma ponderada). u es el umbral, el cual representa el gradode inhibición de la neurona, es un término constante que no depende delvalor que tome la entrada. El valor de f(x) (0 o 1) se usa para clasificar x como un caso positivo oun caso negativo, en el caso de un problema de clasificación binario. Elumbral puede pensarse de como compensar la función de activación, odando un nivel bajo de actividad a la neurona del rendimiento. La sumaponderada de las entradas debe producir un valor mayor que u para cambiarla neurona de estado 0 a 1. En la fase de aprendizaje los pesos son ajustados de acuerdo a lasuma pesada de las entradas (la red). En el perceptrón estándar, la red pasaa la función de activación y la salida de la función es usada para ajustar lospesos.
  • PERCEPTRON MULTICAPA: Es una red neuronal artificial formada por multicapas, esto le permiteresolver problemas que no son linealmente separables lo cual es la principallimitación del perceptron (también llamado perceptron simple). El perceptronmulticapa puede ser totalmente o localmente conectado. En el primer casocada salida de una neurona de capa i es entrada de todas las neuronas de lacapa “ i+1”, mientras que en el segundo cada neurona de la capa “i” esentrada de una serie de neuronas(región)de la capa “i+1”
  •  Capa de entrada: las neuronas de la capa de entrada, reciben los datos que se proporcionan a la RNA para que los procese.  Capas ocultas: estas capas introducen grados de libertad adicionales en la RNA. El número de ellas puede depender del tipo de red que estemos considerando. Este tipo de capas realiza gran parte del procesamiento.  Capa de salida: Esta capa proporciona la respuesta de la red neuronal. Normalmente también realiza parte del procesamiento. RED ADALINE Esta red es del mismo tipo que la perceptron, la red adaline utiliza unmétodo de aprendizaje basada en un algoritmo llamado LMS. Estácompuesta por una neurona con dos entradas, la salida presenta dosopciones o es mayor que 0 o menos que 0. Su aprendizaje es supervisado ypara actualizar el valor de los pesos utiliza el algoritmo anteriormente citado.Su utilización principal es el filtrado y el procesamiento de señaleEstructura Adaline La Figura (4.5.a) muestra una Adaline básica. La unidad procesadorarepresentada por un círculo con el símbolo sumatorio implementa unafunción umbral. Las conexiones de cada una de las entradas tienenasociadas un valor de ponderación llamado también peso wi. El mecanismo de ajuste de los pesos representado en la Figura(4.5.b), consiste en utilizar
  • APRENDIZAJE SUPERVISADO Como ya se mencionó anteriormente una red neuronal artificial (ANN)es un esquema de computación distribuida inspirada en la estructura delsistema nervioso de los seres humanos. La arquitectura de una red neuronales formada conectando múltiples procesadores elementales, siendo éste unsistema adaptivo que posee un algoritmo para ajustar sus pesos (parámetroslibres) para alcanzar los requerimientos de desempeño del problema basadoen muestras representativas. Por lo tanto podemos señalar que una ANN es un sistema decomputación distribuida caracterizada por:
  •  Un conjunto de unidades elementales, cada una de las cuales posee bajas capacidades de procesamiento.  Una densa estructura interconectada usando enlaces ponderados.  Parámetros libres que deben ser ajustados para satisfacer los requerimientos de desempeño.  Un alto grado de paralelismo. Es importante señalar que la propiedad más importante de las redesneuronales artificiales es su capacidad de aprender a partir de un conjuntode patrones de entrenamientos, es decir, es capaz de encontrar un modeloque ajuste los datos. El proceso de aprendizaje también conocido comoentrenamiento de la red puede ser supervisado o no supervisado.El aprendizaje supervisado Se asemeja al método de enseñanza tradicional con un profesor queindica y corrige los errores del alumno hasta que éste aprende la lección. Sila red utiliza un tipo de aprendizaje supervisado debemos proporcionarleparejas de patrones entrada-salida y la red neuronal aprende a asociarlos. En terminología estadística equivale a los modelos en los que hayvectores de variables independientes y dependientes: técnicas de regresión,análisis discriminante, análisis lógit, modelos de series temporales, etc. Enaprendizaje automático y minería de datos, el aprendizaje supervisado esuna técnica para deducir una función a partir de datos de entrenamiento. Losdatos de entrenamiento consisten de pares de objetos (normalmentevectores): una componente del par son los datos de entrada y el otro, losresultados deseados. La salida de la función puede ser un valor numérico
  • (como en los problemas de regresión) o una etiqueta de clase (como en losde clasificación). A través del aprendizaje supervisado es la de crear una función capazde predecir el valor correspondiente a cualquier objeto de entrada válidadespués de haber visto una serie de ejemplos, los datos de entrenamiento.Para ello, tiene que generalizar a partir de los datos presentados a lassituaciones no vistas previamente, cabe destacar que en otros términosconsiste en entrenar la red a partir de un conjunto de datos o patrones deentrenamiento compuesto por patrones de entrada y salida. El objetivo delalgoritmo de aprendizaje es ajustar los pesos de la red w de manera tal quela salida generada por la ANN sea lo más cercanamente posible a laverdadera salida dada una cierta entrada. Es decir, la red neuronal trata deencontrar un modelo al procesos desconocido que generó la salida y. Esteaprendizaje se llama supervisado pues se conoce el patrón de salida el cualhace el papel de supervisor de la red. El aprendizaje supervisado consiste en entrenar la red a partir de unconjunto de datos o patrones de entrenamiento compuesto por patrones deentrada y salida. El objetivo del algoritmo de aprendizaje es ajustar los pesosde la red w de manera tal que la salida generada por la ANN sea lo máscercanamente posible a la verdadera salida dada una cierta entrada. Esdecir, la red neuronal trata de encontrar un modelo al procesos desconocidoque generó la salida y. Este aprendizaje se llama supervisado pues seconoce el patrón de salida el cual hace el papel de supervisor de la red. El aprendizaje no supervisado
  • No hay un profesor que corrija los errores al alumno; recuerda más alauto aprendizaje. El alumno dispone del material de estudio pero nadie locontrola. Si el entrenamiento es no supervisado, únicamente debemossuministrar a la red los datos de entrada para que extraiga los rasgoscaracterísticos esenciales. En terminología estadística equivale a losmodelos en los que sólo hay vectores de variables independientes y buscanel agrupamiento de los patrones de entrada: análisis de conglomerados oclúster, escalas multidimensionales, etc. Aprendizaje no supervisado se presenta sólo un conjunto de patronesa la ANN, y el objetivo del algoritmo de aprendizaje es ajustar los pesos de lared de manera tal que la red encuentre alguna estructura o configuraciónpresente en los datos.Algunas de sus aplicaciones más importantes son:  Asociadores de patrones, esto es asocia dos patrones y permite recuperar la información a pesar de errores en la capa de entrada.  Modeladores funcionales, las redes neuronales permiten, gracias a su capacidad de ajustar el error dar los valores más cercanos a una función de la que solo sabemos algunos puntos por los que pasa CICLO DE ENTRENAMIENTO El entrenamiento de la red neuronal es muy importante ya que servirápara que posteriormente la respuesta del sistema sea la adecuada. Si nosfijamos un poco eso tiene mucho que ver con el aprendizaje humano.Ejemplo, Cuando a un niño se le ordena coger un vaso, empieza moviendo elbrazo de forma cuasi-aleatoria hasta que choca con el vaso y lo presiona con
  • sus dedos. La próxima vez que se le ordene al niño, éste alcanzará el vasocon mayor soltura y precisión. Este mismo modelo se ha ensayado en redesneuronales de características similares a las del niño. Una vez que el brazomecánico choca con la pieza y memoriza la secuencia, en posterioresocasiones al brazo le cuesta menos realizar la misma operación se diceentonces que el sistema adquirió experiencia. Algoritmo de entrenamiento Son técnicas matemáticas o heurísticas bien establecidas a través delos cuales se obtienen los valores de los pesos sinápticos y el parámetro desesgo. Estos algoritmos NO modifican la función de activación elegida parael modelo de red neuronal que se entrena. Lo que hacen es modificar los pesos sinápticos utilizando el valoranterior de este más un factor de corrección:
  • Y se diferencian uno de otro en la forma en que dicha correccionesobtenidas. Existen una amplia variedad de algoritmos de entrenamiento cadacual con sus fortalezas y debilidades. Distintos paradigmas de aprendizajejunto con distintos algoritmos de entrenamiento producen diversas redesneuronales.Existen muchos algoritmos de entrenamiento, algunos de los cuales semencionan:  Error correction learning or delta rule: es un aprendizaje supervisado, en donde se usa el error obtenido en la presentación del estímulo para determinar el factor de corrección.  Competitive learning: las neuronas compiten entre sí para hacerse activas estableciendo. Solo una se activa a la vez (especialización).  Hebbian learning: correlaciona la actividad prey post sináptica (si ambas neuronas se activan se fortalece la conexión y se debilita en caso contrario).  Aquí el factor de corrección es multiplicativo entre la actividad prey post sináptica.  Memory Based learning: la red almacena data ya procesada en memoria. Un nuevo patrón es procesado según su cercanía (en sentido euclideo) a un patrón en memoria
  • ENTRENAMIENTO Durante la operatoria de una red neuronal podemos distinguirclaramente dos fases o modos de operación: la fase de aprendizaje oentrenamiento, y la fase de operación o ejecución. Durante la primera fase, la fase de aprendizaje, la red es entrenadapara realizar un determinado tipo de procesamiento. Una vez alcanzado unnivel de entrenamiento adecuado, se pasa a la fase de operación, donde lared es utilizada para llevar a cabo la tarea para la cual fue entrenada. Una vez seleccionada el tipo de neurona artificial que se utilizará enuna red neuronal y determinada su topología es necesario entrenarla paraque la red pueda ser utilizada. Partiendo de un conjunto de pesos sinápticosaleatorio, el proceso de aprendizaje busca un conjunto de pesos quepermitan a la red desarrollar correctamente una determinada tarea. Duranteel proceso de aprendizaje se va refinando iterativamente la solución hastaalcanzar un nivel de operación suficientemente bueno. El proceso de aprendizaje se puede dividir en tres grandes grupos deacuerdo a sus características [Isasi Viñuela y Galván León, 2004],[Yao,1999]:  Aprendizaje supervisado. Se presenta a la red un conjunto de patrones de entrada junto con la salida esperada. Los pesos se van modificando de manera proporcional al error que se produce entre la salida real de la red y la salida esperada.
  •  Aprendizaje no supervisado. Se presenta a la red un conjunto de patrones de entrada. No hay información disponible sobre la salida esperada. El proceso de entrenamiento en este caso deberá ajustar sus pesos en base a la correlación existente entre los datos de entrada.  Aprendizaje por refuerzo. Este tipo de aprendizaje se ubica entre medio de los dos anteriores. Se le presenta a la red un conjunto de patrones de entrada y se le indica a la red si la salida obtenida es o no correcta. Sin embargo, no se le proporciona el valor de la salida esperada. Este tipo de aprendizaje es muy útil en aquellos casos en que se desconoce cuál es la salida exacta que debe proporcionar la red.Fase de operación Una vez finalizada la fase de aprendizaje, la red puede ser utilizadapara realizar la tarea para la que fue entrenada. Una de las principalesventajas que posee este modelo es que la red aprende la relación existenteentre los datos, adquiriendo la capacidad de generalizar conceptos. De estamanera, una red neuronal puede tratar con información que no le fuepresentada durante de la fase de entrenamiento.Descripción general: Las redes neuronales que puede crear y simular el programa estánformadas por 2 capas de neuronas:
  •  Una capa de entradas, con un máximo de 8 neuronas.  Una capa de salidas, con un máximo de 8 neuronas. Y, cada neurona de la capa de entradas está conectada con todas lasneuronas de la capa de salidas. Estas conexiones presentan pesossinápticos variables: Wij, siendo i el número de la neurona de entrada (Xi) y jel de la neurona de salida (Xj). Además, cada neurona de la capa de salidas presenta un valor umbral(Tj), que, para facilitar la rutina de entrenamiento, se expresa como si fueraun peso sináptico más, asociado a una neurona bias (siempre activa). De esta manera, los valores umbrales quedan: Tj = -W0j, siendo j elnúmero de la neurona de salida (Xj) y X0 la neurona bias.Así, uno de los modelos que puede manejar el programa sería:Y la condición de activación para las neuronas de la capa de salida quedaría:Para el entrenamiento se usa la regla de entrenamiento del Perceptrónsimplificada:
  •  Si la salida generada por la neurona de salida es la correcta (no se realizan ajustes de los pesos sinápticos).  Si la salida es 1 pero debería ser 0, se reducen sólo los pesos de las conexiones activas sobre la neurona de salida según una constante de entrenamiento C.  Si la salida es 0 pero debería ser 1, entonces se aumentan sólo los pesos de las conexiones activas según la misma constante C. El programa permite también trabajar con la red una vez esta ha sidoentrenada, de forma que introduciendo unos datos de entrada, la red generaunos datos de salida. ERROR CUADRÁTICO Otro criterio razonable para escoger un determinado estimador de unparámetro θ es tomar aquel que cometa, en promedio, el menor error en laestimación. Como, en principio, queremos penalizar igualmente los errorespor defecto que por exceso podríamos establecer como cantidad a minimizarla esperanza de la diferencia entre el estadístico T y el parámetro θ (en valorabsoluto para impedir que los errores por defecto y por exceso se anulenmutuamente. Aunque este operador resulta razonable, presenta el inconveniente deque la función valor absoluto es complicada de manejar desde un punto devista matemático. Por dicha razón suele utilizarse el error cuadrático medio(ECM) de un estimador T, definido como sigue:
  • Una propiedad interesante del ECM es que puede descomponersecomo la suma de dos componentes: la varianza del estimador más su sesgoal cuadrado: Por tanto, en el caso de comparar diversos estimadores centrados deun parámetro θ, el ECM coincidirá con sus varianzas. Con lo que elestimador con menor ECM coincidirá con el de menor varianza. Debe quedar claro, sin embargo, que el estimador con menor ECM nodebe ser necesariamente centrado. De hecho, no siempre existirá elestimador con ECM mínimo. En realidad, si no nos restringimos aestimadores centrados, suele suceder que para unos determinados valoresde θ sea un estimador el que produzca un ECM menor, mientras que paraotros valores de θ sea otro estimador el que obtenga un ECM menor. ALGORITMO DE RETROPROPAGACIÓNLa Red Backpropagation El método por el cual el error es propagado hacia atrás fuedescubierto por D.E. Rumelhart, G.E. Hinton y R.J. Williams en 1986. Ellosformalizaron dicho método para que una red neuronal aprendiera laasociación que existe entre los patrones de entrada y las clasescorrespondientes, utilizando varios niveles de neuronas. El método backpropagation (propagación del error hacia atrás),basado en la generalización de la regla delta, a pesar de sus limitaciones, haampliado de forma considerable el rango de aplicaciones de las redesneuronales.
  • El método de back-propagation (o entrenamiento hacia atrás) es unsistema automático de entrenamiento de redes neuronales con capasocultas, perfeccionado en la década de los 80. En este tipo de redes, elproblema a la hora de entrenarlas estriba en que sólo conocemos la salidade la red y la entrada, de forma que no se pueden ajustar los pesossinápticos asociados a las neuronas de las capas ocultas, ya que nopodemos inferir a partir del estado de la capa de salida como tiene que ser elestado de las capas ocultas. Es un algoritmo de aprendizaje supervisado que se usa para entrenarredes neuronales artificiales. El algoritmo consiste en minimizar un error(comúnmente cuadrático) por medio de descenso de gradiente, por lo que laparte esencial del algoritmo es cálculo de las derivadas parciales de dichoerror con respecto a los parámetros de la red neuronal. Conocido también por su denominación en inglés, backpropagation,este algoritmo es de uso muy extendido en las aplicaciones de redesneurales. Se le identifica como parte de los procesos de aprendizajesupervisados como se dijo anteriormente, pues requiere que la red dispongade información para partir de ella, usualmente en las entradas y salidas. Elalgoritmo es iterativo alrededor de los pesos, pues la intención es ajustarlosen cada unidad de tal manera que se reduzca el error entre la salida deseaday la real. De ahí que la variable principal sea conocida como error derivadode los pesos, EW (por las siglas en inglés). El sistema de entrenamiento mediante back-propagation consiste en:  Empezar con unos pesos sinápticos cualquiera (generalmente elegidos al azar).
  •  Introducir unos datos de entrada (en la capa de entradas) elegidos al azar entre los datos de entrada que se van a usar para el entrenamiento.  Dejar que la red genere un vector de datos de salida (propagación hacia delante).  Comparar la salida generada por la red con la salida deseada.  La diferencia obtenida entre la salida generada y la deseada (denominada error) se usa para ajustar los pesos sinápticos de las neuronas de la capa de salidas.  El error se propaga hacia atrás (back-propagation), hacia la capa de neuronas anterior, y se usa para ajustar los pesos sinápticos en esta capa.  Se continua propagando el error hacia atrás y ajustando los pesos hasta que se alcance la capa de entradas. Este proceso se repetirá con los diferentes datos de entrenamiento.La importancia de la red backpropagation: Consiste en su capacidad de auto adaptar los pesos de las neuronasde las capas intermedias para aprender la relación que existe ente unconjunto de patrones de entrada y sus salidas correspondientes. Esimportante la capacidad de generalización, facilidad de dar salidas
  • satisfactorias a entradas que el sistema no ha visto nunca en su fase deentrenamiento. La red debe encontrar una representación interna que lepermita generar las salidas deseadas cuando se le dan entradas deentrenamiento, y que pueda aplicar, además, a entradas no presentadasdurante la etapa de aprendizaje para clasificarlas. CONCLUSION Con las Redes Neuronales se busca la solución de problemascomplejos, no como una secuencia de pasos, sino como la evolución deunos sistemas de computación inspirados en el cerebro humano, y dotadospor tanto de cierta "inteligencia", los cuales no son sino la combinación de
  • elementos simples de proceso (neuronas - se dará una visión rápida sobre elfuncionamiento de las mismas en los seres vivos-) interconectados, queoperando de forma paralela en varios estilos que serán analizadosdetalladamente, consiguen resolver problemas relacionados con elreconocimiento de formas o patrones, predicción, codificación, control yoptimización entre otras aplicaciones que finalizarán con este documento. También se puede decir que las redes neuronales se orientan adesarrollar máquinas o sistemas inteligentes capaces de simular, desarrollary optimizar muchas de las funciones de un ser humano así como también lainvestigación científica ya que pueden hacer cosas que el hombre por suslimitaciones físicas no puede realizar. Estas redes se pueden ver como dos cosas; primero un intento deimitar nuestra forma de pensar, por otro lado un magnífico algoritmo basadoen la paralelización masiva, al contrario de los sistemas informáticoshabituales que se basan en procesar las cosas en serie. Esa, es también laforma que tiene el ser humano de pensar. Muchas veces se dice que los ordenadores han superado al hombre;sin embargo no somos capaces de mantener una buena conversación conuno, y cosas que para nosotros son tan sencillas como identificar un rostroen una multitud, para el ordenador basado en los algoritmos es casiimposible. Si a nosotros nos hablan de un "animal que tiene trompa"inmediatamente pensamos en un elefante. Sin embargo, un ordenadorhabría de buscar recursivamenteen su base de datos sobre animales, unopor uno, hasta encontrar coincidencias.
  • REFERENCIAS BIBLIOGRAFICAS http://www.inf.utfsm.cl/~rsalas/Pagina_Investigacion/docs/Apuntes/Red es%20Neuronales%20Artificiales.pdf http://www.cs.buap.mx/~asanchez/RNA_introduccion.pdf
  •  http://es.kioskea.net/contents/initiation/concept.php3 http://perso.wanadoo.es/alimanya/backprop.htm http://prof.usb.ve/mvillasa/redes/Introduccion-vl.pdf http://es.scribd.com/doc/14897677/Redes-Neuronales-Artificiales-para- la-Prediccion-de-la-Falla-en-Vigas-de-Hormigon-Armado http://www.slideshare.net/iquark/redes-neuronales-1426985 http://www.youtube.com/watch?v=d4t0WGjuYTs http://www.slideshare.net/darwin2000/redes-neuronales-1725612 http://www.slideshare.net/mentelibre/introduccion-a-las-redes- neuronales-artificiales http://www.answermath.com/neural-networks/tutorial-esp-1- contenido.htm http://personal5.iddeo.es/wintrmute/ia/neuronal.htm http://ingenieria.udea.edu.co/investigacion/mecatronica/mectronics/red es.htm Es.wikipedia.org/ wiki/ perceptron_multicapa http://advancedtech.wordpress.com/2007/08/27/arquitectura- estructura-y-funcionamiento-de-las-rna/ http://www.ibiblio.org/pub/linux/docs/LuCaS/Presentaciones/200304cur so-glisa/redes_neuronales/curso-glisa-redes_neuronales- html/x69.html