Redes Neuronales

7,471 views

Published on

Published in: Business
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
7,471
On SlideShare
0
From Embeds
0
Number of Embeds
39
Actions
Shares
0
Downloads
209
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Redes Neuronales

  1. 1. REDES NEURONALES Bryan Carrión 4tio “C”
  2. 2. ¿Que son? <ul><li>¿Qué son las redes neuronales? </li></ul><ul><li>El cerebro es uno de las cumbres de la evolución biológica, ya que es un gran procesador de información. </li></ul><ul><li>Entre sus características podemos destacar, que es capaz de procesar a gran velocidad grandes cantidades de información procedentes de los sentidos, combinarla o compararla con la información almacenada y dar respuestas adecuadas. </li></ul><ul><li>Además es de destacar su capacidad para aprender a representar la información necesaria para desarrollar tales habilidades, sin instrucciones explícitas para ello. </li></ul>
  3. 3. <ul><li>Los científicos llevan años estudiándolo y se han desarrollado algunos modelos matemáticos que tratan de simular su comportamiento. Estos modelos se han basado sobre los estudios de las características esenciales de las neuronas y sus conexiones. </li></ul><ul><li>Aunque estos modelos no son más que aproximaciones muy lejanas de las neuronas biológicas, son muy interesantes por su capacidad de aprender y asociar patrones parecidos lo que nos permite afrontar problemas de difícil solución con la programación tradicional. Se han implementado en computadoras y equipos especializados para ser simulados. </li></ul><ul><li>Con el paso de los años, los modelos de neuronas iniciales se han ido complicando, introduciendo nuevos conceptos llegando a ser una muestra de computación (equivalente a las máquinas de Turing) basado en el comportamiento de las neuronas. </li></ul>
  4. 4. ORIGEN <ul><li>Las Redes Neuronales surgieron del movimiento conexionista, que nació junto con la IA simbólica o tradicional. Esto fue hacia los años 50, con algunos de los primeros ordenadores de la época y las posibilidades que ofrecían. La IA simbólica se basa en que todo conocimiento se puede representar mediante combinaciones de símbolos, derivadas de otras combinaciones que representan verdades incuestionables o axiomas. Así pues, la IA tradicional asume que el conocimiento es independiente de la estructura que maneje los símbolos, siempre y cuando la 'máquina' realice algunas operaciones básicas entre ellos. En contraposición, los 'conexionistas' intentan representar el conocimiento desde el estrato más básico de la inteligéncia: el estrato físico. Creen que el secreto para el aprendizaje y el conocimiento se halla directamente relacionado con la estructura del cerebro: concretamente con las neuronas y la interconexión entre ellas. </li></ul>
  5. 5. OBJETIVOS <ul><li>Conseguir diseñar y construir máquinas capaces de realizar procesos con cierta inteligencia ha sido uno de los principales objetivos de los científicos a lo largo de la historia. De los intentos realizados en este sentido se han llegado a definir las líneas fundamentales para la obtención de máquinas inteligentes: En un principio los esfuerzos estuvieron dirigidos a la obtención de autómatas, en el sentido de máquinas que realizaran, con más o menos éxito, alguna función típica de los seres humanos. Hoy en día se continúa estudiando en ésta misma línea, con resultados sorprendentes, existen maneras de realizar procesos similares a los inteligentes y que podemos encuadrar dentro de la llamada Inteligencia Artificial (IA). </li></ul>
  6. 6. <ul><li>A pesar de disponer de herramientas y lenguajes de programación diseñados expresamente para el desarrollo de máquinas inteligentes, existe un enorme problema que limita los resultados que se pueden obtener: estas máquinas se implementan sobre computadoras basadas en la filosofía de Von Neumann, y que se apoyan en una descripción secuencial del proceso de tratamiento de la información. Si bien el desarrollo de estas computadoras es espectacular, no deja de seguir la línea antes expuesta: una máquina que es capaz de realizar tareas mecánicas de forma increíblemente rápida, como por ejemplo cálculo, ordenación o control, pero incapaz de obtener resultados aceptables cuando se trata de tareas como reconocimiento de formas, voz, etc. </li></ul>
  7. 7. HISTORIA DE LAS REDES NEURONALES <ul><li>• 1959 Widrow Teoría sobre la adaptación neuronal y el Adaline (Adaptative Linear Neuron) y el Madaline (Multiple Adaline). Es la primera aplicación de las redes a problemas reales: filtros adaptativos para eliminar ecos en las líneas telefónicas. </li></ul><ul><li>• 1962, Rosemblatt El Perceptrón es un identificador de patrones ópticos binarios, y salida binaria. Dio lugar a regla de aprendizaje delta, que permitía emplear señales continuas de entrada y salida. </li></ul><ul><li>• 1969, Minsky y Papert una seria crítica del Perceptrón que dada su naturaleza lineal tenia bastantes limitaciones, provocó una caída en picado de las investigaciones y una época gris para las redes neuronales. </li></ul>
  8. 8. <ul><li>• 1977, Anderson Los Modelos de memorias asociativas. Investiga el autoasociador lineal brain-state-in-a-box </li></ul><ul><li>• Años 80, Rumelhart, McClelland & Hinton crean el grupo PDP (Parallel Distributed Processing). Como resultado de los trabajos de este grupo salieron los manuales con más influencia desde el trabajo descorazonador de Minsky y papera </li></ul><ul><li>• 1982, Hopfield elabora un modelo de red consistente en unidades de proceso interconectadas que alcanzan mínimos energéticos, aplicando los principios de estabilidad desarrollados por Grossberg. </li></ul>
  9. 9. <ul><li>• 1984, Kohonen Mapas de Kohonen, Este investigador fines desarrolló redes basadas en aprendizaje competitivo, con una idea nueva basada en la biología: Las unidades de procesos físicamente adyacentes aprenderán a representar patrones de entrada similares, así las neuronas de salida adyacentes identifican patrones similares. </li></ul><ul><li>• 1987, Grossberg El modelo ART (Adaptative Resonance Theory), estudia los principios de la estabilidad de redes neuronales. </li></ul><ul><li>• 1986, Hinton & Sejnowski, la máquina de Boltzmann, una red que usa la probabilidad para encontrar mínimos totales. </li></ul>
  10. 10. <ul><li>• 1987, Kosko los modelos BAM (Bi-directional Associative Memory.) </li></ul><ul><li>En la actualidad gracias a diversos grupos de investigación repartidos por universidades de todo el mundo, las redes neuronales han alcanzado una madurez muy aceptable y se usan en todo tipo de aplicaciones entre las que podemos citar: </li></ul><ul><li>Reconocimiento de patrones, voz y vídeo, Compresión de imágenes. Estudio y predicción de sucesos muy complejos (ej. La bolsa) Aplicaciones de apoyo a la medicina., todo tipo de aplicaciones que necesiten el análisis de grandes cantidades de datos, etc . </li></ul>
  11. 11. FUNCIONAMIENTO <ul><li>Unas redes neuronales consisten en simular las propiedades observadas en los sistemas neuronales biológicos a través de modelos matemáticos recreados mediante mecanismos artificiales (como un circuito integrado, un ordenador o un conjunto de válvulas). El objetivo es conseguir que las máquinas den respuestas similares a las que es capaz de dar el cerebro que se caracterizan por su generalización y su robustez. </li></ul><ul><li>Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones: </li></ul>
  12. 12. <ul><li>Una función de propagación (también conocida como función de excitación), que por lo general consiste en el sumatorio de cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo, la conexión se denomina excitatoria ; si es negativo, se denomina inhibitoria . </li></ul><ul><li>Una función de activación, que modifica a la anterior. Puede no existir, siendo en este caso la salida la misma función de propagación. </li></ul><ul><li>Una función de transferencia, que se aplica al valor devuelto por la función de activación. Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea (para obtener valores en el intervalo [0,1]) y la tangente hiperbólica (para obtener valores en el intervalo [-1,1]). </li></ul>
  13. 13. ¿ PARA QUE SIRVEN? <ul><li>Esta tecnología puede ser desarrollada tanto en software como en hardware y con ella se pueden construir sistemas capaces de aprender, de adaptarse a a condiciones variantes, o inclusive si se dispone de una colección suficiente grande de datos, predecir el estado futuro de algunos modelos. </li></ul><ul><li>Estas técnicas son adecuadas para enfrentar problemas  que hasta ahora eran resueltos sólo por el cerebro humano y resultaban difíciles o imposibles para las máquinas lógicas secuenciales. Un procesamiento paralelo realizado por un gran numero de elementos altamente interconectados, es la clave de su funcionamiento. </li></ul>
  14. 14. <ul><li>Las Redes Neuronales (Neural Networks) son utilizadas para la predicción, la minería de datos (data mining), el reconocimiento de patrones y los sistemas de control adaptativo. Constituyen una parte muy importante en el estudio y desarrollo de la inteligencia artificial (AI) y el de la vida artificial (a-life). </li></ul><ul><li>Las RN pueden ser combinadas con otras herramientas  como la lógica difusa (lógica fuzzy), los algoritmos genéticos, los sistemas expertos, las estadísticas, las transformadas de Fourier, etc. </li></ul>
  15. 15. TIPOS DE REDES NEURONALES <ul><li>1PERCEPTRON </li></ul><ul><li>2 ADALINE </li></ul><ul><li>3 BACKPROPAGATION </li></ul><ul><li>4 REDES COMPETITIVAS </li></ul><ul><li>5 REDES RECURRENTES </li></ul>
  16. 16. <ul><li>GRACIAS POR SU ATENCIÓN </li></ul>

×