SlideShare a Scribd company logo
1 of 22
Universidad Técnica Particular de  Loja Inteligencia Artificial Avanzada PROYECTO FINAL TUTOR: Ing. Nelson Piedra Por: ,[object Object],[object Object]
Introducción En los últimos años se han venido dando muchas mejoras de los algoritmos que tratan sobre el reconocimiento de señales de tránsito La idea del presente trabajo es desarrollar un agente que detecte dichas señales, extraer características de las imágenes que serán los patrones para la creación de un modelo de clasificación. Para la creación del modelo utilizaremos el algoritmo BackPropagation, vamos a variar el número de capas ocultas así como las neuronas que forman dicha capa para comparar los resultados a la hora de converger los modelos realizados. Seguido de toda esta etapa de aprendizaje y creación del modelo vamos a probar, qué tan eficientes son los modelos generados a la hora de clasificar nuevas señales de tránsito.
Estado del Arte RedesNeuronales Muchos investigadores basados en los procesos llevados a cabo por el cerebro humano e inspirados en su funcionamiento han desarrollado las Redes Neuronales Artificiales (RNA). Estos sistemas no requieren que la tarea a ejecutar se programe, sino que generalizan y aprenden de la experiencia. Este proceso de aprendizaje puede ser supervisado o no supervisado [1] Según Looney[2] una de las ramas en la que se aplica las redes neuronales con éxito son entre otras el reconocimiento de patrones. Las ventajas de las redes neuronales son según Hilera y Martinez[1] son : Aprendizaje adaptativo Auto organización Generalización Tolerancia a fallos.  Operación en tiempo real.  Fácil inserción dentro de la tecnología existente.
Estado del Arte (Cont.) Cuadro se muestran las características de algunos modelos que realizan el reconocimiento de patrones
Estado del Arte (Cont.) BackPropagation En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa se conectan entre sí. Cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa.  En la figura se observa la arquitectura de este tipo de red.
Estado del Arte (Cont.) BackPropagation El término backpropagation se refiere al método para calcular el gradiente de error en una red feed-forward (de aprendizaje supervisado), que es una aplicación de la regla de la cadena de cálculo elemental [8]. Indica la propagación hacia atrás de una señal de error a través de la red[9]. Básicamente el entrenamiento de este tipo de red consiste en lo siguiente: Pasada hacia delante (fowardpass): las salidas son calculadas y el error en las unidades de salida es calculado. Pasada hacia atrás (backwardpass): el error de las salidas es utilizado para alterar los pesos de las unidades de salida. Luego el error en las neuronas de las capas ocultas es calculado mediante propagación hacia atrás del error en las unidades de salida, y los pesos en las capas ocultas son alterados usando esos valores. Este paradigma varía los pesos de acuerdo a las diferencias encontradas entre la salida obtenida y la que debería obtenerse. De esta forma, si las diferencias son grandes se modifica el modelo de forma importante y según van siendo menores, se va convergiendo a un modelo final estable.
Estado del Arte (Cont.) BackPropagation El error en una red de neuronas para un patrón [x= (x1, x2, …, xn), t(x)], siendo x el patrón de entrada, t(x) la salida deseada e y(x) la proporcionada por la red, se define como se muestra en la ecuación 1 para m neuronas de salida 		ecuación 1 El método de descenso de gradiente consiste en modificar los parámetros de la red siguiendo la dirección negativa del gradiente del error. Lo que se realizaría mediante la ecuación 3. 		ecuación 3 w es el peso a modificar en la red de neuronas (pasando de wanterior a wnuevo) y α es la razón de aprendizaje, que se encarga de controlar cuánto se desplazan los pesos en la dirección negativa del gradiente. Influye en la velocidad de convergencia del algoritmo, puesto que determina la magnitud del desplazamiento.
Estado del Arte (Cont.) BackPropagation Paso 1: Inicialización aleatoria de los pesos y umbrales. Paso 2: Dado un patrón del conjunto de entrenamiento (x, t(x)), se presenta el vector x a la red y se calcula la salida de la red para dicho patrón, y(x). Paso 3: Se evalúa el error e(x) cometido por la red. Paso 4: Se modifican todos los parámetros de la red. Paso 5: Se repiten los pasos 2, 3 y 4 para todos los patrones de entrenamiento, completando así un ciclo de aprendizaje. Paso 6: Se realizan n ciclos de aprendizaje (pasos 2, 3, 4 y 5) hasta que se verifique el criterio de parada establecido. En cuanto al criterio de parada, se debe calcular la suma de los errores en los patrones de entrenamiento. Si el error es constante de un ciclo a otro, los parámetros dejan de sufrir modificaciones y se obtiene así el error mínimo. Por otro lado, también se debe tener en  cuenta el error en los patrones de validación, que se presentarán a la red tras n ciclos de aprendizaje. Si el error en los patrones de validación evoluciona favorablemente se continúa con el proceso de aprendizaje. Si el error no desciende, se detiene el aprendizaje[3].
Interfaz del Programa
Creación de Variables predictoras y clases, creación del archivo entrenamiento.arff
Entrenar red neuronal
Comandos para ejecutar weka desde Matlab !java -Xmx1024M -cp"C:rogram Fileseka-3-6eka.jar" weka.classifiers.functions.MultilayerPerceptron-L 0.3 -M 0.2 -N 500 -V 0 -S 0 -E 20 -H a-t weka/entrenamiento.arff-d weka/1Capa.model > analisis/entrena1capa.txt
Prueba ,[object Object],!java-Xmx1024M -cp "C:rogram Fileseka-3-6eka.jar" weka.classifiers.functions.MultilayerPerceptron-T weka/test.arff-l weka/2Capa.model -p 0 >analisis/2capa.txt
Pruebas de la convergencia de la red neuronal con los dos modelos (1 capa oculta y 2 capas ocultas) y variando el numero de neuronas en las capas ocultas
Pruebas al analizar distintas imágenes con los dos modelos (1 capa oculta y 2 capas ocultas) y variando el numero de neuronas en las capas ocultas
Conclusiones Cuando se realizaron la prueba los mejores resultados al convergir la red neuronal fueron aplicando una sola capa oculta. Al variar el número de neuronas en la capa oculta a=22, i=35 o t=42 la red tuvo una convergencia menor utilizando una sola capa oculta mientras si se aumentaba a dos capas ocultas la red se demoraba mas en convergir Al utilizar un numero de neuronas en la capa oculta ‘a=(atributos+clases)/2’ la red converge de manera más rápida Los mejores resultados al clasificar nuevas clases se obtuvieron utilizando el modelo de una sola capa oculta Al clasificar las clases la mayor confianza nos arrojo al utilizar una sola capa oculta y con en numero de neuronas en la capa oculta de ‘a=(atributos+clases)/2’ e ‘i= atributos o clases’
Preguntas…
Inteligencia artificial avanzada
Inteligencia artificial avanzada

More Related Content

What's hot

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
ESCOM
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
ESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 
Diseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesDiseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales Artificiales
ESCOM
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
ESCOM
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
c09271
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
jcbp_peru
 

What's hot (18)

Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Diseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales ArtificialesDiseño y Entrenamiento de Redes Neuronales Artificiales
Diseño y Entrenamiento de Redes Neuronales Artificiales
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation
 
Redes de neuronas recurrentes
Redes de neuronas recurrentesRedes de neuronas recurrentes
Redes de neuronas recurrentes
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Utp sirn_sl4 la rna perceptron
 Utp sirn_sl4 la rna perceptron Utp sirn_sl4 la rna perceptron
Utp sirn_sl4 la rna perceptron
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 

Viewers also liked

Trabajo de Iztel Monterrubio
Trabajo de Iztel MonterrubioTrabajo de Iztel Monterrubio
Trabajo de Iztel Monterrubio
Carlos Pelcastre
 
Que es el derecho y el derecho ambiental
Que es el derecho y el derecho ambientalQue es el derecho y el derecho ambiental
Que es el derecho y el derecho ambiental
UTPL UTPL
 
Rea. redaccion comercial y administrativa seg.bim.
Rea. redaccion comercial y administrativa seg.bim.Rea. redaccion comercial y administrativa seg.bim.
Rea. redaccion comercial y administrativa seg.bim.
Videoconferencias UTPL
 
Diagramas de Flujo y Algoritmos (Informática ll)
Diagramas de Flujo y Algoritmos (Informática ll)Diagramas de Flujo y Algoritmos (Informática ll)
Diagramas de Flujo y Algoritmos (Informática ll)
irvingsalazar2
 

Viewers also liked (20)

Trabajo de Iztel Monterrubio
Trabajo de Iztel MonterrubioTrabajo de Iztel Monterrubio
Trabajo de Iztel Monterrubio
 
Presentación algoritmos primaria
Presentación algoritmos primariaPresentación algoritmos primaria
Presentación algoritmos primaria
 
Inteligencia Artificial
Inteligencia ArtificialInteligencia Artificial
Inteligencia Artificial
 
Que es el derecho y el derecho ambiental
Que es el derecho y el derecho ambientalQue es el derecho y el derecho ambiental
Que es el derecho y el derecho ambiental
 
Nueva Evangelización
Nueva EvangelizaciónNueva Evangelización
Nueva Evangelización
 
Estilo y Redacción I (I Bimestre)
Estilo y Redacción I (I Bimestre)Estilo y Redacción I (I Bimestre)
Estilo y Redacción I (I Bimestre)
 
Introducción a la Biblia II Bimestre
Introducción a la Biblia II BimestreIntroducción a la Biblia II Bimestre
Introducción a la Biblia II Bimestre
 
UTPL-PSICOLOGÍA DEL DESEMPEÑO II-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-PSICOLOGÍA DEL DESEMPEÑO II-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)UTPL-PSICOLOGÍA DEL DESEMPEÑO II-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-PSICOLOGÍA DEL DESEMPEÑO II-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
 
UTPL-GRAMÁTICA I-I-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-GRAMÁTICA I-I-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)UTPL-GRAMÁTICA I-I-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-GRAMÁTICA I-I-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
 
Rea. redaccion comercial y administrativa seg.bim.
Rea. redaccion comercial y administrativa seg.bim.Rea. redaccion comercial y administrativa seg.bim.
Rea. redaccion comercial y administrativa seg.bim.
 
UTPL-ARTE Y CULTURA I-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-ARTE Y CULTURA I-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)UTPL-ARTE Y CULTURA I-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
UTPL-ARTE Y CULTURA I-II-BIMESTRE-(OCTUBRE 2011-FEBRERO 2012)
 
Algorítmos - Conceptos básicos
Algorítmos - Conceptos básicosAlgorítmos - Conceptos básicos
Algorítmos - Conceptos básicos
 
El lenguaje en 2º ciclo de primaria. 1º cuadernillo
El lenguaje en 2º ciclo de primaria. 1º cuadernilloEl lenguaje en 2º ciclo de primaria. 1º cuadernillo
El lenguaje en 2º ciclo de primaria. 1º cuadernillo
 
UTPL-HISTORIA DEL PENSAMIENTO ECONÓMICO-I BIMESTRE-(abril agosto 2012)
UTPL-HISTORIA DEL PENSAMIENTO ECONÓMICO-I BIMESTRE-(abril agosto 2012)UTPL-HISTORIA DEL PENSAMIENTO ECONÓMICO-I BIMESTRE-(abril agosto 2012)
UTPL-HISTORIA DEL PENSAMIENTO ECONÓMICO-I BIMESTRE-(abril agosto 2012)
 
Investigación Educativa
Investigación Educativa Investigación Educativa
Investigación Educativa
 
Guia informática 2 contestada
Guia informática 2   contestadaGuia informática 2   contestada
Guia informática 2 contestada
 
Algoritmos y diagramas de flujo
Algoritmos y diagramas de flujoAlgoritmos y diagramas de flujo
Algoritmos y diagramas de flujo
 
Diagramas de Flujo y Algoritmos (Informática ll)
Diagramas de Flujo y Algoritmos (Informática ll)Diagramas de Flujo y Algoritmos (Informática ll)
Diagramas de Flujo y Algoritmos (Informática ll)
 
Inversores en internet 1 junio 2011 madrid
Inversores en internet 1 junio 2011 madridInversores en internet 1 junio 2011 madrid
Inversores en internet 1 junio 2011 madrid
 
heures de tranquillité
 heures de tranquillité heures de tranquillité
heures de tranquillité
 

Similar to Inteligencia artificial avanzada

Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
Liz3113
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
ESCOM
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutions
ESCOM
 

Similar to Inteligencia artificial avanzada (20)

Paper Proyecto de IAA
Paper Proyecto de IAAPaper Proyecto de IAA
Paper Proyecto de IAA
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Dialnet redes neuronalesy-predicciondetrafico-3802210
Dialnet redes neuronalesy-predicciondetrafico-3802210Dialnet redes neuronalesy-predicciondetrafico-3802210
Dialnet redes neuronalesy-predicciondetrafico-3802210
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Clasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig TansigClasificador Caracteres Logsig Tansig
Clasificador Caracteres Logsig Tansig
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Manual NeuroSolutions
Manual NeuroSolutionsManual NeuroSolutions
Manual NeuroSolutions
 
Diagnóstico de fallas utilizando un algoritmo basado en Redes de Petri
Diagnóstico de fallas utilizando un algoritmo basado en Redes de PetriDiagnóstico de fallas utilizando un algoritmo basado en Redes de Petri
Diagnóstico de fallas utilizando un algoritmo basado en Redes de Petri
 
Examen Parcial 2
Examen Parcial 2Examen Parcial 2
Examen Parcial 2
 
Boletin3
Boletin3Boletin3
Boletin3
 

More from Diego Guamán (9)

Taller sbc
Taller sbcTaller sbc
Taller sbc
 
Agente Reconedor de Señales de Transito
Agente Reconedor de Señales de TransitoAgente Reconedor de Señales de Transito
Agente Reconedor de Señales de Transito
 
Proyecto Folding@Home V2
Proyecto Folding@Home V2Proyecto Folding@Home V2
Proyecto Folding@Home V2
 
Ejemplos de representación usando rdf y owl
Ejemplos de representación usando rdf y owlEjemplos de representación usando rdf y owl
Ejemplos de representación usando rdf y owl
 
Open Innovation
Open InnovationOpen Innovation
Open Innovation
 
Capitulo 2
Capitulo 2Capitulo 2
Capitulo 2
 
Porque despedia mis ecretaria.
Porque despedia mis ecretaria.Porque despedia mis ecretaria.
Porque despedia mis ecretaria.
 
Adios De Gabriel Marquez
Adios De Gabriel MarquezAdios De Gabriel Marquez
Adios De Gabriel Marquez
 
Palabras
PalabrasPalabras
Palabras
 

Recently uploaded

RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACIONRESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
amelia poma
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria
Wilian24
 
Proyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfProyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdf
patriciaines1993
 

Recently uploaded (20)

Louis Jean François Lagrenée. Erotismo y sensualidad. El erotismo en la Hist...
Louis Jean François Lagrenée.  Erotismo y sensualidad. El erotismo en la Hist...Louis Jean François Lagrenée.  Erotismo y sensualidad. El erotismo en la Hist...
Louis Jean François Lagrenée. Erotismo y sensualidad. El erotismo en la Hist...
 
Plan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdf
Plan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdfPlan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdf
Plan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdf
 
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPCTRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
TRABAJO FINAL TOPOGRAFÍA COMPLETO DE LA UPC
 
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACIONRESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
 
Power Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptxPower Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptx
 
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
SESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.docSESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.doc
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
 
Posición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxPosición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptx
 
Usos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicasUsos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicas
 
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptxCONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria6°_GRADO_-_MAYO_06 para sexto grado de primaria
6°_GRADO_-_MAYO_06 para sexto grado de primaria
 
Tema 19. Inmunología y el sistema inmunitario 2024
Tema 19. Inmunología y el sistema inmunitario 2024Tema 19. Inmunología y el sistema inmunitario 2024
Tema 19. Inmunología y el sistema inmunitario 2024
 
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024
 
Proyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfProyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdf
 
Revista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdfRevista Apuntes de Historia. Mayo 2024.pdf
Revista Apuntes de Historia. Mayo 2024.pdf
 
prostitución en España: una mirada integral!
prostitución en España: una mirada integral!prostitución en España: una mirada integral!
prostitución en España: una mirada integral!
 
Biografía de Charles Coulomb física .pdf
Biografía de Charles Coulomb física .pdfBiografía de Charles Coulomb física .pdf
Biografía de Charles Coulomb física .pdf
 
Lecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigosLecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigos
 

Inteligencia artificial avanzada

  • 1.
  • 2. Introducción En los últimos años se han venido dando muchas mejoras de los algoritmos que tratan sobre el reconocimiento de señales de tránsito La idea del presente trabajo es desarrollar un agente que detecte dichas señales, extraer características de las imágenes que serán los patrones para la creación de un modelo de clasificación. Para la creación del modelo utilizaremos el algoritmo BackPropagation, vamos a variar el número de capas ocultas así como las neuronas que forman dicha capa para comparar los resultados a la hora de converger los modelos realizados. Seguido de toda esta etapa de aprendizaje y creación del modelo vamos a probar, qué tan eficientes son los modelos generados a la hora de clasificar nuevas señales de tránsito.
  • 3. Estado del Arte RedesNeuronales Muchos investigadores basados en los procesos llevados a cabo por el cerebro humano e inspirados en su funcionamiento han desarrollado las Redes Neuronales Artificiales (RNA). Estos sistemas no requieren que la tarea a ejecutar se programe, sino que generalizan y aprenden de la experiencia. Este proceso de aprendizaje puede ser supervisado o no supervisado [1] Según Looney[2] una de las ramas en la que se aplica las redes neuronales con éxito son entre otras el reconocimiento de patrones. Las ventajas de las redes neuronales son según Hilera y Martinez[1] son : Aprendizaje adaptativo Auto organización Generalización Tolerancia a fallos. Operación en tiempo real. Fácil inserción dentro de la tecnología existente.
  • 4. Estado del Arte (Cont.) Cuadro se muestran las características de algunos modelos que realizan el reconocimiento de patrones
  • 5. Estado del Arte (Cont.) BackPropagation En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa se conectan entre sí. Cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa. En la figura se observa la arquitectura de este tipo de red.
  • 6. Estado del Arte (Cont.) BackPropagation El término backpropagation se refiere al método para calcular el gradiente de error en una red feed-forward (de aprendizaje supervisado), que es una aplicación de la regla de la cadena de cálculo elemental [8]. Indica la propagación hacia atrás de una señal de error a través de la red[9]. Básicamente el entrenamiento de este tipo de red consiste en lo siguiente: Pasada hacia delante (fowardpass): las salidas son calculadas y el error en las unidades de salida es calculado. Pasada hacia atrás (backwardpass): el error de las salidas es utilizado para alterar los pesos de las unidades de salida. Luego el error en las neuronas de las capas ocultas es calculado mediante propagación hacia atrás del error en las unidades de salida, y los pesos en las capas ocultas son alterados usando esos valores. Este paradigma varía los pesos de acuerdo a las diferencias encontradas entre la salida obtenida y la que debería obtenerse. De esta forma, si las diferencias son grandes se modifica el modelo de forma importante y según van siendo menores, se va convergiendo a un modelo final estable.
  • 7. Estado del Arte (Cont.) BackPropagation El error en una red de neuronas para un patrón [x= (x1, x2, …, xn), t(x)], siendo x el patrón de entrada, t(x) la salida deseada e y(x) la proporcionada por la red, se define como se muestra en la ecuación 1 para m neuronas de salida ecuación 1 El método de descenso de gradiente consiste en modificar los parámetros de la red siguiendo la dirección negativa del gradiente del error. Lo que se realizaría mediante la ecuación 3. ecuación 3 w es el peso a modificar en la red de neuronas (pasando de wanterior a wnuevo) y α es la razón de aprendizaje, que se encarga de controlar cuánto se desplazan los pesos en la dirección negativa del gradiente. Influye en la velocidad de convergencia del algoritmo, puesto que determina la magnitud del desplazamiento.
  • 8. Estado del Arte (Cont.) BackPropagation Paso 1: Inicialización aleatoria de los pesos y umbrales. Paso 2: Dado un patrón del conjunto de entrenamiento (x, t(x)), se presenta el vector x a la red y se calcula la salida de la red para dicho patrón, y(x). Paso 3: Se evalúa el error e(x) cometido por la red. Paso 4: Se modifican todos los parámetros de la red. Paso 5: Se repiten los pasos 2, 3 y 4 para todos los patrones de entrenamiento, completando así un ciclo de aprendizaje. Paso 6: Se realizan n ciclos de aprendizaje (pasos 2, 3, 4 y 5) hasta que se verifique el criterio de parada establecido. En cuanto al criterio de parada, se debe calcular la suma de los errores en los patrones de entrenamiento. Si el error es constante de un ciclo a otro, los parámetros dejan de sufrir modificaciones y se obtiene así el error mínimo. Por otro lado, también se debe tener en cuenta el error en los patrones de validación, que se presentarán a la red tras n ciclos de aprendizaje. Si el error en los patrones de validación evoluciona favorablemente se continúa con el proceso de aprendizaje. Si el error no desciende, se detiene el aprendizaje[3].
  • 10. Creación de Variables predictoras y clases, creación del archivo entrenamiento.arff
  • 12. Comandos para ejecutar weka desde Matlab !java -Xmx1024M -cp"C:rogram Fileseka-3-6eka.jar" weka.classifiers.functions.MultilayerPerceptron-L 0.3 -M 0.2 -N 500 -V 0 -S 0 -E 20 -H a-t weka/entrenamiento.arff-d weka/1Capa.model > analisis/entrena1capa.txt
  • 13.
  • 14.
  • 15.
  • 16.
  • 17. Pruebas de la convergencia de la red neuronal con los dos modelos (1 capa oculta y 2 capas ocultas) y variando el numero de neuronas en las capas ocultas
  • 18. Pruebas al analizar distintas imágenes con los dos modelos (1 capa oculta y 2 capas ocultas) y variando el numero de neuronas en las capas ocultas
  • 19. Conclusiones Cuando se realizaron la prueba los mejores resultados al convergir la red neuronal fueron aplicando una sola capa oculta. Al variar el número de neuronas en la capa oculta a=22, i=35 o t=42 la red tuvo una convergencia menor utilizando una sola capa oculta mientras si se aumentaba a dos capas ocultas la red se demoraba mas en convergir Al utilizar un numero de neuronas en la capa oculta ‘a=(atributos+clases)/2’ la red converge de manera más rápida Los mejores resultados al clasificar nuevas clases se obtuvieron utilizando el modelo de una sola capa oculta Al clasificar las clases la mayor confianza nos arrojo al utilizar una sola capa oculta y con en numero de neuronas en la capa oculta de ‘a=(atributos+clases)/2’ e ‘i= atributos o clases’