SlideShare una empresa de Scribd logo
1 de 3
Descargar para leer sin conexión

Abstract— Este documento tiene como finalidad realizar una
pequeel explicar el funcionamiento de la neurona artificial
llamada Perceptron, para ello se lo ha codificado en el lenguaje de
programación JAVA. Proveerá un resultado, previo a un
entrenamiento, a partir de dos entradas.
I. OBJETIVOS
L objetivo principal del laboratorio realizar una
investigación sobre el ADALINE.
II. INTRODUCCION
STE documento va tratar sobre la definición,
funcionamiento, función de activación, método de
aprendizaje del ADALINE así como sus diferencias con el
Perceptron.
III. MARCO TEORICO
La red tipo Perceptrón fue inventada por el sicólogo Frank
Rosenblatt en el año 1957. Su intención era ilustrar algunas
propiedades fundamentales de los sistemas inteligentes en
general, sin entrar en mayores detalles con respecto a
condiciones específicas y desconocidas para organismos
biológicos concretos. Rosenblatt creía que la conectividad
existente en las redes biológicas tiene un elevado porcentaje de
aleatoriedad, por lo que se oponía al análisis de McCulloch Pitts
en el cual se empleaba lógica simbólica para analizar
estructuras bastante idealizadas
ADALINE que por sus siglas en inglés significa ADAptive
LINear Element es un dispositivo que consta de un solo
elemento de procesamiento, por lo que técnicamente no es una
red. Sin embargo es un elemento muy importante, ya que de él
se derivan redes más complejas.
Figura 1: Adaline (ADAptive LINear Element).
Una ADALINE consiste de un ALC (Adaptive Linear
Combiner) y un cuantizador (función bipolar de salida). Se
alimenta con un vector de entrada (valores observados) y con
una entrada constante igual a 1 denominada sesgo (bias).
Posteriormente se efectúa una suma ponderada de los valores
de entrada con sus pesos asociados; si el resultado es positivo,
la salida del ADALINE es 1, en caso contrario es 0 (o -1). En
consecuencia ADALINE sólo resuelve adecuadamente
problemas binarios linealmente separables.
En el año de 1060 Bernard Widrow y Marcian Hoff,
presentaron el ADALINE, y una regla de aprendizaje la cual
denominaron algoritmo LMS (least mean squeare).
El ADALINE es muy similar al Perceptron, exceptuando que
su función de activación, a diferencia del Perceptron que es
una función escalon, es una función de transferencia linear.
Sufre la misma limitante que el Perceptron la cual es que solo
pueden resolver problemas linealmente separables.
Adaline
Jonathan Bladimir Arana Mora
jarana@est.ups.edu.ec
E
E
Figura 2: Estructura de un ADALINE
Método de Aprendizaje.
Figura 3: Arquitectura Adaline.
Para su aprendizaje el ADALINE utiliza el algoritmo LMS.
También llamado del algoritmo de Widrow-Hoff.
Consiste en ajustar los pesos para minimizar el mse (mean
squeare error).
Sea un conjunto de entradas:
Se aplican las Q entradas calculando cada error como la
diferencia entre el objetivo y la salida.
Se desea minimizar el promedio de los cuadrados de estos
errores:
e2(w) = (t - a(w))2
∇𝐸 =
1
𝑄
∑ ∇𝑒2(𝑤)
𝑄
𝑘=1
𝑊 = 𝑊−∝ ∇𝐸
Diferencias con Perceptron.
 El algoritmo LMS es más poderoso que la regla de
aprendizaje del Perceptron.
 La regla del Perceptron garantiza la convergencia a
una solución que categoriza correctamente el
patrón de entrenamiento, pero la red resultante
puede ser sensible al ruido ya que frecuentemente
el modelo cae cerca de la frontera de decisión.
 El algoritmo LMS minimiza el error medio
cuadrático, y por consiguiente trata de mover la
frontera de decisión tan lejos como sea posible del
modelo de entrenamiento.
 El algoritmo LMS ha encontrado muchos más
usos que la regla de aprendizaje del Perceptron.
En esencia en el área del procesamiento digital de
señales.
PERCEPTRON ADALINE
Función de
Transferencia
ESCALON LINEAL
Resolución de
problemas
Linealmente
Separables
Linealment
e
Separables
Comportamiento
con
respecto al
RUIDO
Sensible al
Ruido
Minimiza el
Ruido
Algoritmo de
aprendizaje
Regla de
aprendizaje
del Perceptron
LMS
La tabla resumen las principales y más importantes
diferencias del Perceptron con respecto al ADALINE.
IV. CONCLUSIONES
Se realizó una investigación sobre las redes neuronales en la
inteligencia artificial.
Se obtuvo información para realizar la consulta sobre el
ADALINE, tanto como para su definición y sus diferencias
con su predecesor el PERCEPTRON.
Se pudo conocer de la limitación del Perceptron, y sobre lo
que se mejoró en el ADALINE.
REFERENCES
[1] “PERCEPTRÓN.” WIKIPEDIA, LA ENCICLOPEDIA LIBRE,
JUNIO 19, 2014.
[2]http://www.ayc.unavarra.es/miguel.pagola/Redes
%20Neuronales.pdf
[3]http://www.geofisica.cl/English/pics3/FUM6.ht
m
[4]http://moisesrbb.tripod.com/unidad1.htmhttp
[5]http://www.zator.com/Hardware/H1_7_1.htm
[6]http://delta.cs.cinvestav.mx/~ccoello/revistas/gen
etico.pdf.gz
[7] Smith, Robert E.; Goldberg, David, E. y
Earickson, Jeff A. "SGA-C : A C-language
Implementation of a Simple
Genetic Algorithm", TCGA Report No. 91002, The
Clearinghouse for Genetic Algorithms, The
University of Alabama,
Mayo 14 de 1991.
[8] Filho, José L. Ribeiro; Treleaven, Philip C. y
Alippi, Cesare. "Genetic-Algorithm Programming
Environments", en IEEE Computer, Junio de 1994,
pp. 28-43.

Más contenido relacionado

La actualidad más candente

REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de AprendizajeESCOM
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Tribunal Electoral Provincia de Misiones
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabAna Mora
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adalinec09271
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusajcbp_peru
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla AprendizajeRoberth Figueroa-Diaz
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusajcbp_peru
 

La actualidad más candente (20)

REDES NEURONALES Algoritmos de Aprendizaje
REDES NEURONALES Algoritmos  de AprendizajeREDES NEURONALES Algoritmos  de Aprendizaje
REDES NEURONALES Algoritmos de Aprendizaje
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
Implementacion de la funcion logica xor, mediante un modelo neuronal y el alg...
 
Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlabRedes neuronales-funciones-activacion-hardlim- hardlims-matlab
Redes neuronales-funciones-activacion-hardlim- hardlims-matlab
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp ia_s5_adaline
 Utp ia_s5_adaline Utp ia_s5_adaline
Utp ia_s5_adaline
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusa
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
Perceptron Simple y Regla Aprendizaje
Perceptron  Simple y  Regla  AprendizajePerceptron  Simple y  Regla  Aprendizaje
Perceptron Simple y Regla Aprendizaje
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
 

Similar a Adaline Inteligencia Artificial

48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinDiego Guamán
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)diego28mauricio
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)diego28mauricio
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINRossy Faican Cango
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Expo Red HopField
Expo Red HopFieldExpo Red HopField
Expo Red HopFieldJose Mera
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Diego Paúl Cuenca Quezada
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesHugo Chong
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 

Similar a Adaline Inteligencia Artificial (20)

48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Slidecats
SlidecatsSlidecats
Slidecats
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Colaborativo uno
Colaborativo unoColaborativo uno
Colaborativo uno
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Funciones de activacion Poslin y Purelin
Funciones de activacion Poslin y PurelinFunciones de activacion Poslin y Purelin
Funciones de activacion Poslin y Purelin
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)
 
Redes Neuronales(Examen)
Redes Neuronales(Examen)Redes Neuronales(Examen)
Redes Neuronales(Examen)
 
Función de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELINFunción de Activación POSLIN y PURELIN
Función de Activación POSLIN y PURELIN
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Expo Red HopField
Expo Red HopFieldExpo Red HopField
Expo Red HopField
 
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
Poslin y Purelin para la Resolución de la Discriminante de una Ecuación y de ...
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 

Último

SISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVO
SISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVOSISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVO
SISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVOELIAMARYTOVARFLOREZD
 
Trabajo Tecnologia - José Alejandro Martínez Torres 11-5
Trabajo Tecnologia - José Alejandro Martínez Torres 11-5Trabajo Tecnologia - José Alejandro Martínez Torres 11-5
Trabajo Tecnologia - José Alejandro Martínez Torres 11-5Laura225304
 
Presentación acerca de la importancia de la filosofia en la ingenieria en sis...
Presentación acerca de la importancia de la filosofia en la ingenieria en sis...Presentación acerca de la importancia de la filosofia en la ingenieria en sis...
Presentación acerca de la importancia de la filosofia en la ingenieria en sis...capil94195
 
Tipos de pensamiento y pensamiento lógico
Tipos de pensamiento y pensamiento lógicoTipos de pensamiento y pensamiento lógico
Tipos de pensamiento y pensamiento lógicoMaxCaldern2
 
Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...
Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...
Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...Neo4j
 
Webinar Resolucion2335 de 2023 Kubapp.pdf
Webinar Resolucion2335 de 2023 Kubapp.pdfWebinar Resolucion2335 de 2023 Kubapp.pdf
Webinar Resolucion2335 de 2023 Kubapp.pdfAnaRosaMontenegro
 
BBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafos
BBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafosBBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafos
BBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafosNeo4j
 
Delitos informáticos en Slideshare.pptx
Delitos informáticos en  Slideshare.pptxDelitos informáticos en  Slideshare.pptx
Delitos informáticos en Slideshare.pptxmaykolmagallanes012
 
SQL server Analysis Services & SQL Server Reporting Services.pptx
SQL server Analysis Services & SQL Server Reporting Services.pptxSQL server Analysis Services & SQL Server Reporting Services.pptx
SQL server Analysis Services & SQL Server Reporting Services.pptxRAMIROANTONIOGALINDO
 
ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...
ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...
ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...Neo4j
 

Último (10)

SISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVO
SISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVOSISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVO
SISTEMA INTEGRADO DE ADMINISTRACION FINANCIERA - SIAF MODULO ADMINISTRATIVO
 
Trabajo Tecnologia - José Alejandro Martínez Torres 11-5
Trabajo Tecnologia - José Alejandro Martínez Torres 11-5Trabajo Tecnologia - José Alejandro Martínez Torres 11-5
Trabajo Tecnologia - José Alejandro Martínez Torres 11-5
 
Presentación acerca de la importancia de la filosofia en la ingenieria en sis...
Presentación acerca de la importancia de la filosofia en la ingenieria en sis...Presentación acerca de la importancia de la filosofia en la ingenieria en sis...
Presentación acerca de la importancia de la filosofia en la ingenieria en sis...
 
Tipos de pensamiento y pensamiento lógico
Tipos de pensamiento y pensamiento lógicoTipos de pensamiento y pensamiento lógico
Tipos de pensamiento y pensamiento lógico
 
Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...
Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...
Graph Everywhere - Josep Taruella - Por qué Graph Data Science en tus modelos...
 
Webinar Resolucion2335 de 2023 Kubapp.pdf
Webinar Resolucion2335 de 2023 Kubapp.pdfWebinar Resolucion2335 de 2023 Kubapp.pdf
Webinar Resolucion2335 de 2023 Kubapp.pdf
 
BBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafos
BBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafosBBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafos
BBVA - GraphSummit Madrid - Caso de éxito en BBVA: Optimizando con grafos
 
Delitos informáticos en Slideshare.pptx
Delitos informáticos en  Slideshare.pptxDelitos informáticos en  Slideshare.pptx
Delitos informáticos en Slideshare.pptx
 
SQL server Analysis Services & SQL Server Reporting Services.pptx
SQL server Analysis Services & SQL Server Reporting Services.pptxSQL server Analysis Services & SQL Server Reporting Services.pptx
SQL server Analysis Services & SQL Server Reporting Services.pptx
 
ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...
ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...
ISDEFE - GraphSummit Madrid - ARETA: Aviation Real-Time Emissions Token Accre...
 

Adaline Inteligencia Artificial

  • 1.  Abstract— Este documento tiene como finalidad realizar una pequeel explicar el funcionamiento de la neurona artificial llamada Perceptron, para ello se lo ha codificado en el lenguaje de programación JAVA. Proveerá un resultado, previo a un entrenamiento, a partir de dos entradas. I. OBJETIVOS L objetivo principal del laboratorio realizar una investigación sobre el ADALINE. II. INTRODUCCION STE documento va tratar sobre la definición, funcionamiento, función de activación, método de aprendizaje del ADALINE así como sus diferencias con el Perceptron. III. MARCO TEORICO La red tipo Perceptrón fue inventada por el sicólogo Frank Rosenblatt en el año 1957. Su intención era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones específicas y desconocidas para organismos biológicos concretos. Rosenblatt creía que la conectividad existente en las redes biológicas tiene un elevado porcentaje de aleatoriedad, por lo que se oponía al análisis de McCulloch Pitts en el cual se empleaba lógica simbólica para analizar estructuras bastante idealizadas ADALINE que por sus siglas en inglés significa ADAptive LINear Element es un dispositivo que consta de un solo elemento de procesamiento, por lo que técnicamente no es una red. Sin embargo es un elemento muy importante, ya que de él se derivan redes más complejas. Figura 1: Adaline (ADAptive LINear Element). Una ADALINE consiste de un ALC (Adaptive Linear Combiner) y un cuantizador (función bipolar de salida). Se alimenta con un vector de entrada (valores observados) y con una entrada constante igual a 1 denominada sesgo (bias). Posteriormente se efectúa una suma ponderada de los valores de entrada con sus pesos asociados; si el resultado es positivo, la salida del ADALINE es 1, en caso contrario es 0 (o -1). En consecuencia ADALINE sólo resuelve adecuadamente problemas binarios linealmente separables. En el año de 1060 Bernard Widrow y Marcian Hoff, presentaron el ADALINE, y una regla de aprendizaje la cual denominaron algoritmo LMS (least mean squeare). El ADALINE es muy similar al Perceptron, exceptuando que su función de activación, a diferencia del Perceptron que es una función escalon, es una función de transferencia linear. Sufre la misma limitante que el Perceptron la cual es que solo pueden resolver problemas linealmente separables. Adaline Jonathan Bladimir Arana Mora jarana@est.ups.edu.ec E E
  • 2. Figura 2: Estructura de un ADALINE Método de Aprendizaje. Figura 3: Arquitectura Adaline. Para su aprendizaje el ADALINE utiliza el algoritmo LMS. También llamado del algoritmo de Widrow-Hoff. Consiste en ajustar los pesos para minimizar el mse (mean squeare error). Sea un conjunto de entradas: Se aplican las Q entradas calculando cada error como la diferencia entre el objetivo y la salida. Se desea minimizar el promedio de los cuadrados de estos errores: e2(w) = (t - a(w))2 ∇𝐸 = 1 𝑄 ∑ ∇𝑒2(𝑤) 𝑄 𝑘=1 𝑊 = 𝑊−∝ ∇𝐸 Diferencias con Perceptron.  El algoritmo LMS es más poderoso que la regla de aprendizaje del Perceptron.  La regla del Perceptron garantiza la convergencia a una solución que categoriza correctamente el patrón de entrenamiento, pero la red resultante puede ser sensible al ruido ya que frecuentemente el modelo cae cerca de la frontera de decisión.  El algoritmo LMS minimiza el error medio cuadrático, y por consiguiente trata de mover la frontera de decisión tan lejos como sea posible del modelo de entrenamiento.  El algoritmo LMS ha encontrado muchos más usos que la regla de aprendizaje del Perceptron. En esencia en el área del procesamiento digital de señales.
  • 3. PERCEPTRON ADALINE Función de Transferencia ESCALON LINEAL Resolución de problemas Linealmente Separables Linealment e Separables Comportamiento con respecto al RUIDO Sensible al Ruido Minimiza el Ruido Algoritmo de aprendizaje Regla de aprendizaje del Perceptron LMS La tabla resumen las principales y más importantes diferencias del Perceptron con respecto al ADALINE. IV. CONCLUSIONES Se realizó una investigación sobre las redes neuronales en la inteligencia artificial. Se obtuvo información para realizar la consulta sobre el ADALINE, tanto como para su definición y sus diferencias con su predecesor el PERCEPTRON. Se pudo conocer de la limitación del Perceptron, y sobre lo que se mejoró en el ADALINE. REFERENCES [1] “PERCEPTRÓN.” WIKIPEDIA, LA ENCICLOPEDIA LIBRE, JUNIO 19, 2014. [2]http://www.ayc.unavarra.es/miguel.pagola/Redes %20Neuronales.pdf [3]http://www.geofisica.cl/English/pics3/FUM6.ht m [4]http://moisesrbb.tripod.com/unidad1.htmhttp [5]http://www.zator.com/Hardware/H1_7_1.htm [6]http://delta.cs.cinvestav.mx/~ccoello/revistas/gen etico.pdf.gz [7] Smith, Robert E.; Goldberg, David, E. y Earickson, Jeff A. "SGA-C : A C-language Implementation of a Simple Genetic Algorithm", TCGA Report No. 91002, The Clearinghouse for Genetic Algorithms, The University of Alabama, Mayo 14 de 1991. [8] Filho, José L. Ribeiro; Treleaven, Philip C. y Alippi, Cesare. "Genetic-Algorithm Programming Environments", en IEEE Computer, Junio de 1994, pp. 28-43.