Your SlideShare is downloading. ×
Presentación BCI MAEB 2012
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Saving this for later?

Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime - even offline.

Text the download link to your phone

Standard text messaging rates apply

Presentación BCI MAEB 2012

321
views

Published on

Published in: Education

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
321
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
7
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Evolución de redes neuronales artificiales para el diseño deinterfaces cerebro-computadora G. Romero, M.G. Arenas, P.A. Castillo, A.M. Mora, P. García-Sánchez, J.J. Merelo Departamento de Arquitectura y Tecnología de Computadores
  • 2. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIndiceI. IntroducciónII. Autoregulación de Potenciales Corticales LentosIII.Resultados experimentales A.Descripción del algoritmo B.Seleccción de parámetros C.Preprocesamiento de datos D.Resultados
  • 3. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraI. Introducción• Los interfaces cerebro-máquina son un conjunto de técnicas para controlar ordenadores con el cerebro.• Enfocadas a personas con problemas de movilidad.• Basada en la detección de impulsos eléctricos del cerebro mediante electroencefalograma.• Problema a resolver: mover un cursor en una pantalla.
  • 4. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraI. Introducción Conjunto de datos de un concurso internacional sobre la materia.• Métodos empleados para resolver el problema: – Algoritmos evolutivos. – Modelos ocultos de Markov (HMM). – Redes neuronales artificiales. – Análisis lineales --> mejor resultado en la bibliografía. – Métodos probabilisticos. – Filtrado espacial. – Máquinas de soporte vectorial (SVM).• Método basado en G-Prop: híbrido AE + QP.• Problema del sobreentrenamiento evitado eliminando QP.
  • 5. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIndiceI. IntroducciónII. Autoregulación de Potenciales Corticales LentosIII.Resultados experimentales A.Descripción del algoritmo B.Seleccción de parámetros C.Preprocesamiento de datos D.Resultados
  • 6. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraII. Autoregulación de Potenciales Corticales Lentos (SCP) Conjunto de datos (Ia) facilitado por Niels Birbaumer de la Universidad de Tübingen: – Sujetos sanos mueven un cursor arriba y abajo mientras reciben retroalimentación sobre sus SCP. – Ensayos de 6s, retroalimentación entre 2-5.5s, muestreo a 256Hz x 3.5s x 6 canales = 5376 datos/ensayo. – Conjuntos de datos: entrenamiento 268 ensayos, test 293 ensayos.• Ganador del II concurso BCI: Brett Mensh, MIT, error 11,3% con método de análisis lineal.• Mejor resultado basado en el uso de RNA: J. Sanchez, Univ. Florida, error 19,8%.
  • 7. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIndiceI. IntroducciónII. Autoregulación de Potenciales Corticales LentosIII.Resultados experimentales A.Descripción del algoritmo B.Seleccción de parámetros C.Preprocesamiento de datos D.Resultados
  • 8. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.A. Descripción del algoritmo Clasificación realizada mediante perceptrones multicapa (MLP) totalmente conectados. Los MLPs son completamente diseñados mediante un Algoritmo Evolutivo (AE) que se encarga desde los pesos iniciales hasta la arquitectura de la red. Operadores genéticos del AE: – Mutación aditiva, distribución gaussiana (0, 1). – Mutación multiplicativa, distribución uniforme [-2, 2]. – BLX-alfa• No se ha empleado validación cruzada puesto que no se ha utilizado ningún algoritmo de entrenamiento de RNAs para evitar el problema del sobreentrenamiento.
  • 9. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIndiceI. IntroducciónII. Autoregulación de Potenciales Corticales LentosIII.Resultados experimentales A.Descripción del algoritmo B.Seleccción de parámetros C.Preprocesamiento de datos D.Resultados
  • 10. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.B. Selección de parámetros. Tamaño de población: 200 individuos, más ralentiza el proceso sin apenas producir mejoras de calidad. Número de generaciones: 100, a partir de ahí la calidad de las soluciones permanece constante.
  • 11. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.B. Selección de parámetros. Se probaron dos métodos diferentes: – Tradicional repetición de experimentos con diferentes tasas. – Reproductor que autoajusta las tasas de aplicación (5%/gen). Operadores de mutación: – Mutación aditiva: 0,34 – Mutación multiplicativa: 0,5
  • 12. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.B. Selección de parámetros. Operador de cruce BLX-alfa: – Tasa de aplicación: 0,98 – Alfa: 0,5
  • 13. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.B. Selección de parámetros. Arquitectura del MLP: – Una neurona en la capa de salida. – Conjunto de entrenamiento: sin neuronas en la capa oculta. – Conjunto de test: 2 neuronas en la capa oculta.
  • 14. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIndiceI. IntroducciónII. Autoregulación de Potenciales Corticales LentosIII.Resultados experimentales A.Descripción del algoritmo B.Seleccción de parámetros C.Preprocesamiento de datos D.Resultados
  • 15. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.C. Preprocesamiento de datos. El conjunto original de datos tiene 6 canales de los cuales el 0 y el 1 son los más relevantes como puede verse en la clasificación por separado. Utilizando sólo el canal 0 acelera el proceso de entramiento y mejora la generalización sobre el conjunto de test un 7,55%. El preprocesamiento de los datos mediante la transformada discreta del coseno mejora la capacidad de clasificación (3,10%/7,04%).
  • 16. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIndiceI. IntroducciónII. Autoregulación de Potenciales Corticales LentosIII.Resultados experimentales A.Descripción del algoritmo B.Seleccción de parámetros C.Preprocesamiento de datos D.Resultados
  • 17. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadoraIII.D. Resultados. Resultados promedio de 100 experimentos con diferentes semillas. Mejor porcentaje de error de clasificación sobre el conjunto de test de la literatura: 8,53%. El canal 0 es el más relevante. Utilizarlo mejora a la vez los tiempos de entrenamiento y la capacidad de clasificación. El preprocesamiento mediante la transformada discreta del coseno mejora los resultados. entrenamiento test método x±σ mejor x±σ mejor SPC 18,7 11,3 MLP 19,8 MLP+EA 7,20±2,06 5,97 11,77±1,47 8,53
  • 18. Evolución de redes neuronales artificiales para el diseño de interfaces cerebro-computadora ¿Preguntas? . . . Gracias :)