Reconocimiento de objetos

1,695 views

Published on

0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
1,695
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
43
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide
  • \n
  • Antes de empezar creo que es conveniente hablar de lo que sabemos o no acerca del reconocimiento de objetos, cosas como su funcionamiento, su utilidad y sus orígenes.\n\nDe esta forma creo que lo adecuado es empezar por sus orígenes.\n
  • Se puede decir que el origen del reconocimiento de objetos surge de la necesidad del ser humano de diferenciar entre dos objetos similares o entre dos personas parecidas. Como bien puede ser diferenciar a dos hermanos gemelos o para diferenciar a dos animales de la misma especie. Lo que viene a ser el “¿quién es quién?”.\n
  • Se puede decir que el origen del reconocimiento de objetos surge de la necesidad del ser humano de diferenciar entre dos objetos similares o entre dos personas parecidas. Como bien puede ser diferenciar a dos hermanos gemelos o para diferenciar a dos animales de la misma especie. Lo que viene a ser el “¿quién es quién?”.\n
  • De forma muy básica y comparado con el humano un sistema de reconocimiento de objetos se compone de tres sencillos pasos. Para empezar un sistema de adquisición de imágenes captura una imagen del entorno deseado (que sería el ojo), acto seguido esta imagen es enviada a una unidad de procesamiento (el cerebro) el cual se encarga de separar los objetos que se encuentran en nuestra imagen tras lo cual se recurren a los patrones de los que disponemos para diferenciarlos (en nuestro caso lo haríamos recurriendo a la memoria).\n
  • De forma muy básica y comparado con el humano un sistema de reconocimiento de objetos se compone de tres sencillos pasos. Para empezar un sistema de adquisición de imágenes captura una imagen del entorno deseado (que sería el ojo), acto seguido esta imagen es enviada a una unidad de procesamiento (el cerebro) el cual se encarga de separar los objetos que se encuentran en nuestra imagen tras lo cual se recurren a los patrones de los que disponemos para diferenciarlos (en nuestro caso lo haríamos recurriendo a la memoria).\n
  • Una de las posibles utilidades de un sistema de reconocimiento de objetos puede ser el reconocimiento de patrones para la detección de caras, separar los objetos de una imagen del fondo. Diferenciar en una fotografía si la mariposa que en ella aparece es de un tipo u otro e incluso, en un grupo de mariposas, encontrar la que buscamos y descartar el resto.\n
  • Una de las posibles utilidades de un sistema de reconocimiento de objetos puede ser el reconocimiento de patrones para la detección de caras, separar los objetos de una imagen del fondo. Diferenciar en una fotografía si la mariposa que en ella aparece es de un tipo u otro e incluso, en un grupo de mariposas, encontrar la que buscamos y descartar el resto.\n
  • El reconocimiento de patrones es la disciplina científica cuyo objetivo es la clasificación de objetos en un cierto número de categorías, de esta forma cualquier tipo de medida que lo necesite será clasificada.\n\nPara ello existen 3 formas de hacerlo, que son con los enfoques estadístico, sintáctico o estructural y mediante redes neuronales.\n
  • Tanto el enfoque estadístico (tª de decisión) como el basado en redes neuronales utilizan patrones que se extraen de sus propiedades de naturaleza cualitativa, como por ejemplo el color, tamaño, densidad, peso, volumen que ocupan, etc.\n\nPor otro lado el enfoque sintáctico se fundamenta en las relaciones geométricas asociadas a la forma de los objetos, lo que nos permite reconocer diferentes vistas de los mismos.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • En el esquema de funcionamiento de un sistema de reconocimiento existen dos partes claramente diferenciadas, que son las fases de funcionamiento y diseño. Para ésta última necesitamos un conjunto de muestras del objeto que queremos procesar, así pues para ello se debe realizar una selección de características y diseñar el clasificador a partir de unas funciones de decisión que se explicarán más adelante.\n\nPara la fase de funcionamiento se podría decir que la primera etapa es casi la más importante, ésta es la Imagen digital, resulta importante ya que de no ser de una calidad adecuada el reconocimiento puede resultar fallido, pero no basta con tener la imagen, también hay que operar con ella y hacerle operaciones como la detección de bordes o el aumento de la nitidez, esto lo realiza la etapa de preprocesado. En la etapa de segmentación se aisla al objeto, separándolo del resto de la imagen. Acto seguido se extraen las características que definen al objeto que estamos estudiado y con ese vector de atributos realizamos la clasificación. Estas dos últimas etapas están intrínsicamente relacionadas con las vistas en la fase de diseño ya que éstas son definidas y reguladas desde la etapa de diseño.\n
  • La segmentación, como muy bien explicaron los compañeros la semana pasada es el proceso por el cual se divide una imagen digital en varias partes u objetos y así poder separar nuestro objeto de estudio del fondo y del entorno.\n\nSu principal objetivo es simplificar la forma de representar una imagen para ayudarnos en su estudio.\n\nAsí pues, mediante un etiquetado pixel a pixel podemos separar los puntos que comparte la misma etiqueta, los cuales, podemos afirmar que tendrán grandes similitudes visuales.\n
  • Se trata de transformar un objeto perteneciente a una imagen en un vector de atributos que lo defina, de forma que sea más fácil compararlo con el resto de objetos a fin de diferenciarlo de ellos.\n\nInicialmente no sabemos si un dato será o no relevante, por tanto para generar un modelo introduciremos atributos y posteriormente podremos determinar si un atributo es o no relevante para la clasificación.\n\nSi hay pocos ejemplos estos datos no relevantes pueden interferir en el modelo, por tanto debemos aumentar el numero de ejemplos de entrenamiento o realizar una etapa inicial de selección de características o atributos que influyan, dicho de otra forma, eliminar atributos poco relevantes o que induzcan a error.\n
  • Cosas tales como el color, la forma geométrica o el volumen son cosas que nos ayudan a diferenciar varios objetos. Pero a la hora de elegir las características debemos tener en cuenta ciertas propiedades que nos ayuden a realizar de forma correcta nuestras tareas. De forma que no podemos elegir cualquiera, ya que puede inducirnos a error.\n\nLas principales propiedades que deben cumplir las características que elijamos son las siguientes:\n=>Robustez: la extracción debe ser insensible al ruido de captura e iluminación, ya que en muchas ocasiones no se consigue limpiar la imagen al 100%\n=>Discriminantes: las características deben servir para distinguir objetos de clases distintas, de esta forma se entiende que no se puede distinguir entre un camión y un coche si la característica que analizamos es el color de la carrocería.\n=>Invariante ante traslación: los valores de las características son independientes de la posición. Rotación y escalado: características independientes de la orientación del objeto y de su tamaño. Perspectiva: transformaciones no lineales de deformación.\n
  • Cosas tales como el color, la forma geométrica o el volumen son cosas que nos ayudan a diferenciar varios objetos. Pero a la hora de elegir las características debemos tener en cuenta ciertas propiedades que nos ayuden a realizar de forma correcta nuestras tareas. De forma que no podemos elegir cualquiera, ya que puede inducirnos a error.\n\nLas principales propiedades que deben cumplir las características que elijamos son las siguientes:\n=>Robustez: la extracción debe ser insensible al ruido de captura e iluminación, ya que en muchas ocasiones no se consigue limpiar la imagen al 100%\n=>Discriminantes: las características deben servir para distinguir objetos de clases distintas, de esta forma se entiende que no se puede distinguir entre un camión y un coche si la característica que analizamos es el color de la carrocería.\n=>Invariante ante traslación: los valores de las características son independientes de la posición. Rotación y escalado: características independientes de la orientación del objeto y de su tamaño. Perspectiva: transformaciones no lineales de deformación.\n
  • Un claro ejemplo es el que mostramos, se ve una imagen en la cual aparecen unas letras escritas a boli, esa sería la imagen de la cual queremos realizar el reconocimiento de objetos, aunque en este ejemplo se trata de un reconocimiento de texto. En este segundo paso tenemos el vector de características o atributos que se han extraido de la imagen. Dicho vector se enviará al clasificador en el cual, tras aplicar los algoritmos necesarios para comparar nuestras características con las de la base de datos, se obtendrá el texto digitalizado y se etiquetará a cada letra asignandole su valor alfanumerico.\n
  • El clasificador, como su propio nombre indica, se encarga de clasificar todos y cada uno de los objetos que le llegan y dividirlos en cada una de las clases que se hayan contemplado en la base de datos o en los patrones de referencia. Aquí llega la imagen adecuadamente tratada y extraida de su fondo y entorno. \n\nLa clasificación parte de un vector de atributos obtenido mediante la extracción de características, vector el cual es comparado con los existentes en las bibliotecas que usamos para clasificar nuestros objetos.\n\nLos mecanismos que se encargan de esta tarea son los que van a explicar mis compañeros a continuación, aunque antes hay que hacer referencia al diseño de esta etapa.\n
  • Se trata del algoritmo que se encarga de decidir la denominación de un objeto (definir a qué clase pertenece) a partir de las características o atributos extraídos.\n\nMás adelante se van a ver los diferentes algoritmos de decisión que podemos utilizar para la clasificación de los objetos.\n\nPor cuestión de tiempo no vamos a poder tratar todas las formas de abordar la clasificación, por eso nos vamos a centrar en el diseño de clasificadores por entrenamiento de los mismos, es decir, en el aprendizaje máquina.\n
  • \n
  • Clasificación según el paradigma\n-Aprendizaje Deductivo: Las técnicas del Aprendizaje Deductivo se basan en la transferencia de los conocimientos que un experto humano posee a un sistema informático. Un ejemplo paradigmático de las metodologías que utilizan tales técnicas lo constituyen los Sistemas Basados en el Conocimiento y, en particular, los Sistemas Expertos.\n\n-Aprendizaje Inductivo: Las técnicas de Aprendizaje Inductivo se basan en que el sistema pueda, automáticamente, conseguir los conocimientos necesarios a partir de ejemplos reales sobre la tarea que se desea modelizar. En este segundo tipo, los ejemplos los constituyen aquellas partes de los sistemas basados en los modelos ocultos de Markov o en las redes neuronales artificiales que son configuradas automáticamente a partir de muestras de aprendizaje.\n\n-Por refuerzo:\nEl sistema no recibe información de entrada, sino q intenta x si mismo obtener datos (EXPLORACIÓN AUTONOMA) y su sistema de aprendizaje es mediante prueba y error.\nProblema:¿EN QUE MOMENTO DEJAMOS DE APRENDER?\nSolución de compromiso: Dilema entre la exploración (continuar buscado nueva reglas) y la explotación (utilizar las reglas aprendidas)\n\nDentro del aprendizaje inductivo encontramos:\n\nAprendizaje supervisado\nEl algoritmo produce una función que establece una correspondencia entre las entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es el problema de clasificación, donde el sistema de aprendizaje trata de etiquetar (clasificar) una serie de vectores utilizando una entre varias categorías (clases). La base de conocimiento del sistema está formada por ejemplos de etiquetados anteriores. Este tipo de aprendizaje puede llegar a ser muy útil en problemas de investigación biologica, biologia computacional y bioinformatica.\nAprendizaje no supervisado\nTodo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer patrones para poder etiquetar las nuevas entradas.\nAprendizaje semisupervisado\nEste tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de manera adecuada. Se tiene en cuenta los datos marcados y los no marcados.\nAprendizaje por refuerzo\nEl algoritmo aprende observando el mundo que le rodea. Su información de entrada es el feedback o retroalimentación que obtiene del mundo exterior como respuesta a sus acciones. Por lo tanto, el sistema aprende a base de ensayo-error.\nTransducción\nSimilar al aprendizaje supervisado, pero no construye de forma explícita una función. Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de entrada, sus respectivas categorías y los ejemplos nuevos al sistema.\nAprendizaje multi-tarea\nMétodos de aprendizaje que usan conocimiento previamente aprendido por el sistema de cara a enfrentarse a problemas parecidos a los ya vistos.\n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • CONCEPTO: (OBTENER UN MODELO) \nEs obtener el modelo el cual queremos aprender a partir de los ejemplos de entrenamiento, también llamado hipótesis. Según los atributos, me dirá la clase del nuevo ejemplo que tenemos que estudiar, EL MODELO.\nLos conceptos (tipos de modelos) se expresan de diferentes formas:\n Árboles de decisión\n Listas de reglas\n Redes Neuronales\n Vecino más proximo\n Modelos bayesianos o probabilísticos.\n Etc.\nLas fronteras de decisión (frontera entre clases distintas de acuerdo con el modelo) que crea cada modelo, son diferentes. \n\n INSTANCIA: Cada uno de los ejemplos de entrenamiento vistos hasta ese momento.\n ATRIBUTO: Cada una de las medidas que forman el vector de atributos de un ejemplo, pueden ser:\n REALES: Puede tomar cualquier valor numérico dentro de un rango.\n DISCRETO: Toman valores discretos ordenados.\nEj: La temperatura como {alta, media, baja}.\n CATEGÓRICOS: Toma valores discretos no ordenados.\nEj: El color como {azul, rojo, amarillo}.\n CLASE: Es el atributo que debe deducirse a partir de los demás.\n
  • an pasado anteriormente.\nEjemplo: modelado de la probabilidad de fallo de una máquina.\n- Clases: Comprobamos si la máquina puede fallar o no puede.\nAtributos: Son el conjunto de medidas con las que podemos ver si sucede:\nTemperatura.\nNivel de vibraciones.\nHoras de funcionamiento.\nMeses desde la última revisión.\n- Instancias: Situaciones que han pasado anteriormente.\nConcepto: Relación entre las medidas y la probabilidad de fallo (IF-THEN).\n\nSI nivel_vibraciones = ALTO & temperatura = ALTA. ENTONCES va a fallar seguro.\n\n
  • \n
  • Es la capacidad de expresar varios conceptos diferentes, se estudia mediante la frontera de decisión generada con cada modelo (árboles de decisión, redes neuronales, etc), unos ejemplos con solo 2 atributos podrían ser:\n\nInstantáneamente podemos ver lo que está haciendo nuestro modelo, el problema fundamental de este clasificador es que las rectas que definen a las fronteras de decisión han de ser perpendiculares a los ejes. LOS ÁRBOLES SON FÁCILES DE ENTENDER E INTERPRETAR, LOS NIVELES ALTOS DEL ÁRBOL INDICAN LOS ATRIBUTOS MÁS IMPORTANTES. \nPUDIENDO UTILIZARSE PARA OFRECER INFORMACIÓN.\nRedes neuronales. Tiene fronteras no lineales.\nMayor capacidad de representación.\nPermiten representar conceptos más complejos que los arboles de decisión.\n\nSus fronteras son mucho más complejas, lo que hace que el modelo esté formado por grandes tablas numéricas, siendo habitualmente imposible ver intuitivamente lo que está haciendo el modelo. Son muy difíciles o imposibles de interpretar, ya que hay múltiples conexiones entre neuronas con pesos diferentes, y no podemos ver que atributo influye más. \nSE PUEDE UTILIZAR COMO UN CLASIFICADOR, PERO NO PARA OFRECER INFORMACIÓN.\n\n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • Arboles de decisión: tiempo necesario para elegir la estructura del árbol y los atributos a situar en cada uno de los nodos.\nRedes Neuronales: tiempo necesario para ajustar los pesos de las conexiones.\n
  • NOTA PARA ALDO:\n“Funcionando muy lejos del nivel óptimo si no se establece todo bien, necesitamos un óptimo entrenamiento de las redes neuronales (velocidad: tasa de aprendizaje, nº iteraciones de la red neuronal).” \n\nNo entiendo lo que dice gonzalo.\n
  • Unos ejemplos de entrenamiento ruidosos, se producen cuando hay una base de datos muy grande y puede que hayan ejemplos mal etiquetados.\n
  • A medida que añadimos niveles al Arbol de decisión, las hipótesis se refinan tanto que describen muy bien los ejemplos utilizados en el aprendizaje, pero el error de clasificación puede aumentar al evaluar ejemplos.\nSe dice que una hipótesis h se sobreajusta al conjunto de entrenamiento si existe alguna otra hipótesis h' tal que el error de h es menor que el de h' sobre el conjunto de entrenamiento, pero es mayo sobre la distribución completa de ejemplos del problema (entrenamiento + test).\nEs decir, clasifica muy bien los datos de entrenamiento pero luego no sabe generalizar al conjunto de test. Es debido a que aprende hasta el ruido del conjunto de entrenamiento, adaptándose a las regularidades del conjunto de entrenamiento).\n\n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • Un clasificador bayesiano es un clasificador de patrones basado en teorías estadísticas de aprendizaje. El aprendizaje bayesiano calcula la probabilidad de cada hipótesis de los datos y realiza predicciones sobre estas bases. Es un aprendizaje casi óptimo, pero requiere grandes cantidades de cálculo debido a que el espacio de hipótesis es normalmente muy grande, o incluso puede ser infinito.\n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • \n
  • Otra característica importante de estas características es que las posiciones relativas entre ellos en la escena original no debe cambiar de una imagen a otra. Por ejemplo, si sólo las cuatro esquinas de una puerta fueron utilizados como características, que podría funcionar independientemente de la posición de la puerta, pero si los puntos en el marco se utiliza también, el reconocimiento fallaría si la puerta está abierta o cerrada\n\n\n
  • David G. Lowe profesor del departamento de ciencias de la computación de la University of British Columbia e investigador de visión artificial \nSe almacenan el conjunto de puntos significativos con sus características para cada objeto\n
  • \n
  • \n
  • Estos detectores se basan en una cascada de clasificadores que es explorada por toda la imagen en múltiples escalas y localizaciones. Cada etapa de la cascada se basa en el uso de simples características tipo Haar (eficientemente computadas utilizando la imagen integral) seleccionadas y combinadas mediante AdaBoost durante el entrenamiento.\n
  • La eficiencia de este esquema reside en el hecho de que los negativos (la inmensa mayoría de las ventanas a explorar) van siendo eliminados progresivamente (ver Fig. 2), de forma que las primeras etapas eliminan a un gran número de ellos (los más fáciles) con muy poco procesado. Esto permite que las etapas finales tengan tiempo suficiente para encargarse de clasificar correctamente los casos más difíciles.\n\n
  • \n
  • Reconocimiento de objetos

    1. 1. Tema 11: reconocimiento deobjetos.Tema presentado por: Jesualdo Ros, GonzaloGarcía, Federico Sogorb y Luis Belzunce.
    2. 2. Antes de empezar...¿Cuál es su origen?¿Cómo funciona?¿Para qué sirve? ¿Tiene algún uso?
    3. 3. Origen del reconocimientoDiferenciación de características e identificaciónde patrones para la clasificación.
    4. 4. Origen del reconocimientoDiferenciación de características e identificaciónde patrones para la clasificación.
    5. 5. Origen del reconocimientoDiferenciación de características e identificaciónde patrones para la clasificación.
    6. 6. FuncionamientoObtención de unaimagen por parte deuna cámara.Procesado de laimagen.Reconocimiento depatrones.
    7. 7. FuncionamientoObtención de unaimagen por parte deuna cámara.Procesado de laimagen.Reconocimiento depatrones.
    8. 8. FuncionamientoObtención de unaimagen por parte deuna cámara.Procesado de laimagen.Reconocimiento depatrones.
    9. 9. UtilidadIdentificación depatrones para ladistinción de unosobjetos de otros.
    10. 10. UtilidadIdentificación depatrones para ladistinción de unosobjetos de otros.
    11. 11. UtilidadIdentificación depatrones para ladistinción de unosobjetos de otros.
    12. 12. ¿Qué es?Disciplina científica con un objetivo.Clasificación de objetos en clases.Se puede enfocar de tres formas: estadística. sintáctica o estructural. de redes neuronales.
    13. 13. EnfoquesEstadístico (o de la teoría Sintáctico se basa en lasde decisión) & de redes relaciones geométricas.neuronales se basan en Relaciones que vanlo mismo. asociadas a la forma deExtraer sus propiedades, los objetos.de forma cualitativa.
    14. 14. Esquema de un sistema dereconocimiento.
    15. 15. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Fase de diseño.
    16. 16. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Fase de diseño. Conjunto de muestras
    17. 17. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Fase de diseño. Conjunto de Selección de muestras características
    18. 18. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Fase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    19. 19. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Imagen digitalFase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    20. 20. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Imagen digitalPreprocesamientoFase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    21. 21. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Imagen digitalPreprocesamiento SegmentaciónFase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    22. 22. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Imagen digital Extracción dePreprocesamiento Segmentación característicasFase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    23. 23. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Imagen digital Extracción dePreprocesamiento Segmentación Clasificador característicasFase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    24. 24. Esquema de un sistema dereconocimiento. Fase de funcionamiento.Imagen digital Extracción dePreprocesamiento Segmentación Clasificador característicasFase de diseño. Conjunto de Selección de Diseño del clasificador: muestras características funciones de decisión.
    25. 25. Segmentación.Dividir una imagen para aislar nuestro objeto.Objetivo: simplificar la representación de la imagenpara un mejor estudio de la misma.Etiquetado de pixeles con las mismas característicaspara agrupar sus propiedades.
    26. 26. Extracción de características Transformar la imagen de un objeto en un vector que defina sus cualidades, normalmente físicas. ¿Es el dato relevante? Los datos poco relevantes se eliminan para no interferir en el modelo.
    27. 27. Propiedades de lascaracterísticas a extraer. Robustez: insensible al ruido de captura e iluminación. Discriminantes: que distingan objetos de distintas clases. Invariante ante traslación, rotación y escalado y perspectiva.
    28. 28. Propiedades de lascaracterísticas a extraer. Robustez: insensible al ruido de captura e iluminación. Discriminantes: que distingan objetos de distintas clases. Invariante ante traslación, rotación y escalado y perspectiva.
    29. 29. Propiedades de lascaracterísticas a extraer. Robustez: insensible al ruido de captura e iluminación. Discriminantes: que distingan objetos de distintas clases. Invariante ante traslación, rotación y escalado y perspectiva.
    30. 30. Un ejemplo...Una posible utilización la vemos en elreconocimiento de textos, en este caso tenemosel patrón de las letras y comparamos con estepatrón el vector de atributos que obtenemos dela imagen.
    31. 31. ClasificadorPartimos de un vector de atributos extraídos de laimagen del objeto.Clasifica las imágenes en las diferentes clases que secontemplan.Existen diferentes mecanismos de clasificación.
    32. 32. Diseño del clasificador. Algoritmos que toman la decisión de donde o como clasificar un objeto. El diseño más extendido es el de clasificadores por entrenamiento o aprendizaje máquina.
    33. 33. Algoritmos de decisión.Clasificación.
    34. 34. Tipos de aprendizajeautomáticoAprendizaje deductivo Modelos generales Modelo especificoAprendizaje inductivo Modelo especifico Modelos generalesAprendizaje por refuerzo Exploración autónoma y explotación de lo aprendido.
    35. 35. Aprendizaje inductivo El objetivo es generar un modelo general a partir de ejemplos específicos El conjunto de ejemplos se denomina conjunto de entrenamiento
    36. 36. Aprendizaje inductivo El objetivo es generar un modelo general a partir de ejemplos específicos El conjunto de ejemplos se denomina conjunto de entrenamiento
    37. 37. Concepto: Determinar el nuevo objeto a estudiar segúnlos atributos (hipótesis).Instancia: Cada uno de los ejemplos de entrenamiento.Atributo: Cada una de las medidas que forman elvector de atributos de un ejemplo. Reales: Pueden tomar cualquier valor numérico en un rango. Discretos: Toman valores discretos ordenados: Por ejemplo la temperatura como alta, media o baja. Categóricos: Valores discretos no ordenados. Por ejemplo el color.Clase: Es el atributo que buscamos determinar a partirde los demás.
    38. 38. Ejemplo: modelado de la probabilidadde fallo de una máquina. Clase: Comprobamos si falla. Atributos: Medidas por las que puede fallar: Temperatura. Nivel de Vibraciones. Horas de funcionamiento. Meses desde la última revisión. Instancias: Situaciones que han pasado anteriormente. Concepto: Relación entre las medidas y probabilidad de fallo. (IF-THEN)Si el nivel de vibraciones es alto y la temperatura es alta,entonces fallará.
    39. 39. Algoritmos de decisión.Criterios de Selección del Modelo.
    40. 40. Capacidad de representacióny legibilidad. Capacidad de expresar varios conceptos diferentes. Frontera de decisión generada con cada modelo. Árboles de Decisión. Redes Neuronales. Facilidad con la que un humano puede leer e interpretar. A continuación, ejemplos con solo 2 atributos:
    41. 41. Árboles de decisión
    42. 42. Árboles de decisióntemp. vibración
    43. 43. Árboles de decisión vibr.>120?temp. fallará 120 vibración
    44. 44. Árboles de decisión vibr.>120? sitemp. F fallará 120 vibración
    45. 45. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará95 fallará 120 vibración
    46. 46. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará si95 fallará F 120 vibración
    47. 47. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará si no95 fallará vibr.>70? F no fallará 70 120 vibración
    48. 48. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará si no95 fallará vibr.>70? F no no fallará NF 70 120 vibración
    49. 49. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará si no95 fallará fallará vibr.>70? F no no si50 fallará NF temp.>50? 70 120 vibración
    50. 50. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará si no95 fallará fallará vibr.>70? F no no si50 fallará NF temp.>50? 70 120 vibración no si F
    51. 51. Árboles de decisión vibr.>120? no sitemp. temp.>95? F fallará si no95 fallará fallará vibr.>70? F no no si50 fallará no fallará NF temp.>50? 70 120 vibración no si NF F
    52. 52. Más facil de entender e interpretar.Niveles altos, atributos importantes.Rectas de las fronteras perpendiculares a los ejes.Se pueden utilizar para proporcionar información.
    53. 53. Redes NeuronalesFronteras más complejas.Formado por grandestablas numéricas.Imposibles de interpretar.Se puede utilizar comoclasificador. No sirve paraproporcionar información.
    54. 54. Redes NeuronalesFronteras más complejas. temp.Formado por grandes fallarátablas numéricas. 95 fallaráImposibles de interpretar. no fallará 50 fallaráSe puede utilizar como noclasificador. No sirve para fallaráproporcionar información. 70 120 vibración
    55. 55. Computo ON-LINETiempo necesario para clasificar un nuevo ejemplo. Árboles de Decisión: Tiempo para recorrer el árbol, evaluar las funciones de cada nodo una vez este clasificado. Redes Neuronales: Tiempo para realizar las operaciones incluidas en la red. Métodos Probabilísticos: Tiempo para calcular probabilidades.
    56. 56. EjemploTomamos imágenes aéreas tanto en el espectro visible(RGB) como en el infrarrojo (I). Cada pixel tendrá un vector de 4 atributos. Según los atributos, cada pixel lo clasificamos. Río Montaña Coche EdificioEl tiempo de computo es muy importante al analizarmuchos pixeles.
    57. 57. Algoritmos de decisión.Criterios de Selección del Algoritmo.
    58. 58. Computo OFF-LINETiempo necesario para construir y/o ajustar el modeloa partir de los ejemplos de entrenamiento. Árboles de Decisión: Tiempo necesario para elegir la estructura del árbol y los atributos a situar en cada uno de los nodos. Redes Neuronales: Tiempo necesario para ajustar los pesos de las conexiones.Este tiempo no suele ser muy importante.Consiste en generar el modelo, tarde lo que tarde.Siempre que sea optimo y reduzca el tiempo ON-LINE.
    59. 59. Dificultad de ajustes deparámetros. Muy fácil generar el modelo, ya que no hay parámetros que ajustar o que el modelo es poco sensible a la modificación de estos. (Árboles de decisión). Hay veces en los que hay que “podarlos”. Dificultades al ajustar el modelo para que nos de resultados óptimos, al disponer de muchos parámetros a ajustar o que es muy sensible a la modificación de los mismos. (Redes neuronales).
    60. 60. Robustez ante ejemplos deentrenamiento ruidosos.Base de datos muy grande, ejemplos mal etiquetados. Ejemplo: Maquina que no falló, etiquetada como que si lo hizo.Los algoritmos de árboles de decisión o de redesneuronales, pueden funcionar correctamente aunquehaya un porcentaje ruidoso en el conjunto.Los algoritmos como el vecino más cercano, noofrecen buenos resultados.
    61. 61. Sobreajuste (OVERFITTING)Problema muy común.El modelo se ajusta demasiado a los ejemplos deentrenamiento.Es imposible generalizar.Las fronteras de decisión muy complejas producen unsobreajuste.
    62. 62. Correcta SobreajustadaNo consigue 100% de Consigue el 100% declasificaciones correctas. clasificaciones correctas.Correctamente Frontera artificial.separadas.
    63. 63. Correcta SobreajustadaNo consigue 100% de Consigue el 100% declasificaciones correctas. clasificaciones correctas.Correctamente Frontera artificial.separadas.
    64. 64. Correcta SobreajustadaNo consigue 100% de Consigue el 100% declasificaciones correctas. clasificaciones correctas.Correctamente Frontera artificial.separadas.
    65. 65. Correcta SobreajustadaNo consigue 100% de Consigue el 100% declasificaciones correctas. clasificaciones correctas.Correctamente Frontera artificial.separadas.
    66. 66. Correcta SobreajustadaNo consigue 100% de Consigue el 100% declasificaciones correctas. clasificaciones correctas.Correctamente Frontera artificial.separadas.
    67. 67. Algoritmos de decisión.Clasificación de los métodos.
    68. 68. Los métodos de aprendizaje inductivo seclasifican en: Lazy Eager No construyen un Construyen un modelo. modelo. Parte del trabajo se hace Hacemos todo el off-line, al recopilar todos procesamiento on-line. los conjuntos de entrenamiento. El vecino más cercano sería un ejemplo. Como pueden ser los árboles de decisión, redes neuronales, etc.
    69. 69. Vecino más cercanoClasificación
    70. 70. Vecino mas cercanoConsiste en... Modelo de clasificación inductivo basado en el método lazy No crea ningún modelo durante el entrenamiento, lo único que hace es almacenar en una base de datos los ejemplos de entrenamiento Consiste en clasificar elementos futuros únicamente comparando la instancia a clasificar con su lista de datos
    71. 71. Vecino mas cercanoPuede llevarse a cabo de dos formas: Clasificación directa con la instancia más cercana El nuevo ejemplo a clasificar se le asigna la clase de la instancia más cercana al mismo (1-NN). Clasificación teniendo en cuenta una región La nueva instancia debe ser clasificada según el máximo número de elementos de una clase dentro de una región (K-NN) donde K>1.
    72. 72. Vecino mas cercanoAclaración En la gráfica aparecen X2 representados los Instancias de entrenamiento Clase A ejemplos de Clase B Clase C entrenamiento que han Nueva instancia por clasificar sido recopilados y de los cuales conocemos su clase, dentro del modelo tenemos introducido otro ejemplo, el cual deseamos clasificar X1
    73. 73. Vecino mas cercanoAclaración Método básico: solo un vecino 1-NN X2 Instancias de entrenamiento Clase A Clase B Clase C Nueva instancia por clasificar Asignado el ejemplo mas cercano X1
    74. 74. Vecino mas cercano Si decidimos realizar una clasificación la cuál no será directamente el dato más cercano, sino que se clasifica según la clase que más se repita dentro de una región,Ejemplo aclaratorio debemos dar valores al parámetro K. Donde K debe ser mayor que 1 X2 Instancias de entrenamiento K-NN Clase A Clase B Asignamos la Clase C Nueva instancia por clase a la clasificar mayoritaria de las K instancias mas cercanas Para este caso con k=5 X1
    75. 75. Vecino mas cercanoPonderación de la función de distancia (K-NN) Consiste en dar mayor importancia a los vecinos más cercanos N: Numero de ejemplos de cada clase ponderados di: Distancia al ejemplo a clasificar Cuanto menor sea la distancia mayor será el factor de ponderación de la clase, damos más importancia a las distancias en un k-NN
    76. 76. Vecino mas cercanoProcedimiento de clasificación de una nueva instancia Normalmente distancias Calcular la distancia. euclídeas, pudiendo eliminar la raíz ya que busco la distancia mayor desde el ejemplo a clasificar hasta todos los ejemplos de entrenamiento Las distancias se miden en el espacio de atributos, por tanto trabajamos en tantas dimensiones como atributos tengamos. Elegir las K instancias más próximas y se asigna la clase Por tanto tenemos que calcular la distancia a mayoritaria entre las K instancias. TODOS los ejemplos de entrenamiento, por tanto aunque tengamos un tiempo de computo OFF-LINE corto, pues simplemente consiste en Por lo que hay que calcular la distancias a todos los ejemplos de almacenar los datos, el tiempo de computo ON- LINE es alto pues necesitamos medir para TODOS los ejemplos que deseamos clasificar su entrenamiento (Alto tiempo de computo on-line) distancia a TODAS las instancias de ejemplo Es importante la normalizaciónIMPORTANTE LA LOS ES de los atributos (Atributos con NORMALIZACIÓN DE mayor valor absoluto siempreATRIBUTOS CONQUE LOS sobre los demás) prevalecen ATRIBUTOS, YA MAYOR VALOR ABSOLUTO SIEMPRE PREVALECEN SOBRE LOS DEMÁS.
    77. 77. Vecino mas cercanoEjemplo Weka hace uso de la siguiente formula para normalizar los atributos en el rango de 0 a 1Teniendo en cuenta que poseemos la siguiente base de datos formada por 4instancias (ejemplos de entrenamiento) donde cada una dice el una persona devuelve Menudo pastón cobra siun préstamo según la edad y poder adquisitivo,abuelo determinar si una persona de 65 añose ingresos de 25000€ devolverá el préstamo: Ejemplo Salario Edad Devuelve el préstamo Aparentemente lo más 1 100,000 55 Si importante es la edad, por tanto inicialmente 2 90,000 30 No podríamos llegar a la conclusión que la clase del 3 15,000 60 Si ejemplo que deseamos clasificar sería SI, por tanto se le concedería el 4 20,000 25 No préstamo.
    78. 78. Vecino mas cercanoEjemploDistancias: El ejemplo más cercano es el cuarto, por tanto la clase del ejemplo a clasificar sería que NO devolverá el préstamo
    79. 79. Vecino mas cercanoReducir el tiempo de computo on-line Se reduce almacenando únicamente los elementos relevantes, normalmente los de la frontera Consiste en no guardar TODOS los ejemplos de entrenamiento, solo los más representativos que en principio son los que están cerca de la frontera entre 2 clases
    80. 80. Vecino mas cercanoCaracterísticas Capacidad de representación: Muy elevada, fronteras de decisión complejas. Legibilidad: Ninguna, no se crea modelo Tiempo de computo ON-LINE: Lento, es necesario calcular distancias a todos los ejemplos de entrenamiento. Tiempo de computo OFF-LINE: Rápido, solo el tiempo para almacenar todas las instancias de entrenamiento. Parámetros a ajustar: Solo el número de vecinos (K-NN) Robustez ante instancias de entrenamiento ruidosas: El 1-NN no es robusto. A medida que aumentamos K se vuelve más robusto Sobreajuste (overfitting): Es difícil que ocurra, más difícil con forme aumentamos K.
    81. 81. Arboles de decisiónClasificación
    82. 82. Arboles de decisiónConsiste en... Dada una base de datos se construyen diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas Se lee de arriba abajo y tienen las siguiente características: Representan funciones lógicas(IF-THEN) Compuesto de nodos y ramas El NODO RAIZ es el nodo superior del árbol. Los nodos internos están formados por los atributos (medidas) Los nodos hojas están formados por las clases.
    83. 83. Arboles de decisiónObjetivo El objetivo en el aprendizaje automático consiste en la creación de un árbol de decisión a partir de un conjunto de instancias de entrenamiento Si partimos de un gráfico la obtención del árbol es sencilla ya que solo debemos satisfacer una serie de sentencias condicionales delalgoritmo El ejemplo un macabro gráfico es para decidir quien sobrevivirá cuando se Supervivientes del Titanic hunda el TitanicIngresos Sexo Hombre Mujer Sobrevive Sobrevive Edad 20 Edad<12 Edad>12 Sobrevive Sobrevive Ingresos No sobrevive Ingresos<20 Ingresos>20 LAS SENTENCIAS IF-THEN PRODUCEN No sobrevive Sobrevive FRONTERAS QUE TENGAN QUE SER PERPENDICULARES A LOS EJES 12 Edad
    84. 84. Arboles de decisiónEntropía La entropía se utiliza para encontrar el parámetro más significativo en la caracterización de un clasificador. Consiste en obtener el porcentaje de ejemplos de cada clase que llega a cada nodo. Consiste en estimar cuanto de separadas están las clases que me r llegan a un nodo esto consiste en i Porcentaje de instancias la Entropía, es decir, de minimizar pertenecientes a la todos los ejemplos de clase i entrenamiento que me llegan a un nodo habrá un número de ejemplos k Numero de clases clasificados con una clase y otros clasificados con las demás clases, Minimizar la Entropía consiste en que no haya mezclas de clases. por tanto será mejor la elección de un atributo, frente a otro, si separa mejor las clases. La entropía será máxima si a un nodo le llega el mismo porcentaje de cada clase, si tenemos K clases:
    85. 85. Arboles de decisiónEjemplo Partimos de un conjunto de entrenamiento formado por 7 instancias Las cuales definen si una máquina fallará o no, es decir, dos clases distintas. Horas de Temperatura Nivel de vibraciones Meses desde revisión Probabilidad de fallo funcionamiento ALTA ALTO <1000 > 1 MES fallará BAJA BAJO <1000 < 1 MES no fallará ALTA BAJO >1000 > 1 MES no fallará ALTA BAJO <1000 > 1 MES no fallará BAJA ALTO <1000 > 1 MES no fallará BAJA ALTO >1000 > 1 MES fallará ALTA ALTO <1000 < 1 MES fallará
    86. 86. Arboles de decisiónEjemplo Nosotros lo haremos de forma visual pero el El siguiente paso es obtener una nueva tabla a partir de los ejemplos de entrenamiento donde algoritmo estudiará la podemos observar cuantas clases y de que tipo son, para cada atributo: entropía de cada atributo y decidirá su posición en los distintos Estudiando la base de datos para cada atributo se observa que el atributo que mejor separa un nodos número mayor de clases (Menor entropía) es el de Ya que existen tres vibraciones de las siete instancias de entrenamiento definidas por Bajas Vibraciones, las cuales son de la misma CLASE ATRIBUTO VALORES (ENTROPÍA NULA). clase fallará no fallaraá ALTO 2 2 Temperatura BAJO 1 2 ALTO 3 1 Nivel de vibraciones BAJO 0 3 < 1000 2 3Horas de funcionamiento > 1000 1 1 > 1 Mes 2 3Meses desde la revisión < 1 Mes 1 1
    87. 87. Arboles de decisiónEjemploArbol hasta el momento: NIVEL DE VIBRACIÓN ALTO BAJO ? No fallará No fallará 1 instancia No fallará 3 instancia Fallará 3 instancias Fallará 0 instancias Por la derecha ya hemos acabado por que a la hojas solo le puede llegar una clase ELECCIÓN DEL SIGUIENTE ATRIBUTO TENIENDO EN CUENTA QUE VAMOS A En cambio en la zona izquierda tenemos entropía distinta de cero, ya ESTUDIAR LAS 4 INSTANCIAS QUE FALTAN que 25% de los ejemplos dice que la máquina fallara y el resto dice que POR CLASIFICAR TENIENDO EN CUENTA QUE LAS no. VIBRACIONES SON ALTAS
    88. 88. Arboles de decisiónEjemploElección del siguiente atributo El siguiente atributo que CLASE aparte de reducir la entropía, ATRIBUTO VALORES la minimiza en un mayor fallará no fallaraá número de casos es la Temperatura, por tanto ALTO 2 0 Temperatura obtendríamos: BAJO 1 1 Nivel de vibración < 1000 2 1 Horas de ALTO BAJOfuncionamiento > 1000 1 0 Temperatura No fallará ALTO BAJO (3,0) > 1 Mes 2 1Meses desde Fallará ? la revisión < 1 Mes 1 0 (2,0) (1,1)
    89. 89. Arboles de decisiónEjemplo Siguiendo con lo dicho hasta ahora, vamos acortando elElección del siguiente atributo número de ejemplos d entrenamiento que no han sido clasificado, teniendo en cuenta CLASE ATRIBUTO VALORES que las vibraciones son ALTAS y fallará la temperatura BAJA, quedaría no fallaraá por clasificar 2 instancias de < 1000 0 entrenamiento 3 Horas de funcionamiento > 1000 1 0 > 1 Mes 1 1 Meses desde la revisión < 1 Mes 0 0Arbol generado: Nivel de vibración ALTO BAJO Temperatura No fallará ALTO BAJO (3,0) Fallará Horas de funcionamiento (2,0) <1000 >1000 (1,0) No fallará Fallará (1,0)
    90. 90. Arboles de decisión Mientras que el ID3 nunca produce árboles demasiado grandes, sinoPoda (Pruning) que dejan de crecer cuando TODOS los nodos hoja contienen una sola clase o cuando en un camino del árbol se han utilizado todos los atributos, el C4.5 puede repetir atributos en el árbol Hasta ahora hemos hablado de los Algoritmos utilizados para construir o ajustar el modelo modelos de clasificación, pero algunos de estos modelos poseen distintitos algoritmos utilizados a partir de las instancias de entrenamiento para construir o ajustar el modelo a partir de las instancias de entrenamiento, vamos a ver 2 algoritmos del clasificador que ID3: Atributos discretos. Deja de crecer cuando todos los nodos hoja contienen unas sola clase o cuando en un camino del árbol se han utilizado todos los atributos C4.5: Para atributos continuos o reales y discretos. Implementado en WEKA como J48. Puede repetir atributos en el árbol Un árbol demasiado grande puede producir sobreajuste, por tanto es necesario podar los árboles
    91. 91. Arboles de decisiónPoda (Pruning) Consiste en realizar un test estadístico que indica si el árbol podado funcionará previsiblemente mejor o peor que el árbol sin podar. Se considera el peor caso posible (peor situación posible dentro del rango previsible). El rango es mayor o menor en función de un parámetro que es ajustable denominado nivel de confianza que por defecto vale El rango es mayor o menor en función del nivel de confianza. 0.25, es decir, estudia si es mejor podar un árbol para el 25% de los casos más desfavorables según una función de densidad de probabilidad gaussiana. Hay dos posibles tipos de poda: Reemplazo de un subárbol (un subárbol se sustituye por una hoja). Elevación de un subárbol (un subárbol se eleva en el árbol principal).
    92. 92. Arboles de decisiónPoda (Pruning) N1 N1 Elevación de un subárbol N2 N3 N2 N4 A B C N4 A B C* D* D E N1 Remplazo de A+B N3 un subárbol C N4 D E
    93. 93. Arboles de decisiónCaracteristicas Capacidad de representación: No muy elevada, las superficies de decisión son siempre perpendiculares a los ejes. Legibilidad: Muy elevada, Uno de los mejores modelos en este sentido Tiempo de computo ON-LINE: Muy rápido, clasificar un nuevo ejemplo es tan sencillo como recorrer el árbol hasta alcanzar un nodo hoja. Tiempo de computo OFF-LINE: Rápido, tanto ID3 como C4.5 son algoritmos simples. Parámetros a ajustar: Fundamentalmente el nivel de confianza para la poda. Fácil de ajustar: el valor por defecto (25%) da buenos resultados. Robustez ante instancias de entrenamiento ruidosas: Robusto, cualquier ejemplo de entrenamiento ruidoso no va a afectar si hay suficientes instancias de entrenamiento. Sobreajuste (overfitting): No se produce siempre que se realice una poda del árbol C4.5.
    94. 94. Precisión del clasificadorValidación cruzada
    95. 95. Validación cruzadaCross-validation CROSS-VALIDATION Es una técnica utilizada para evaluar los resultados de un análisis estadístico y garantizar que son independientes de la partición entre datos de entrenamiento y prueba. Es una forma de Establecer si el modelo generado funcionará mal Con la validación cruzada buscamos: Se utiliza en entornos donde el objetivo principal Validar la solidez de un modelo determinado. es la predicción y se quiere estimar cómo de preciso es un modelo que se Evaluar varios modelos de una instrucción única. llevará a cabo a la práctica. Generar varios modelos e identificar a continuación el mejor modelo basándose en estadísticas.
    96. 96. Validación cruzadaConsiste en... Consiste en repetir y calcular la media aritmética obtenida de las medidas de evaluación sobre diferentes particiones. Se calcula el porcentaje de aciertos sobre los datos no utilizados para generar el modelo para proporcionarnos una medida de cuan de preciso es. Por tanto el procedimiento de validación cruzada nos permite obtener una medida realista y utilizar todos los ejemplos de entrenamiento para generar el árbol
    97. 97. Validación cruzadaConsiste en... Consiste en repetir y calcular la media aritmética obtenida de las medidas de evaluación sobre diferentes particiones. Se calcula el porcentaje de aciertos sobre los datos no utilizados para generar el modelo para proporcionarnos una medida de cuan de preciso es. Por tanto el procedimiento de validación cruzada nos permite obtener una medida realista y utilizar Problema: No siempre tenemos un conjunto de todos los ejemplos de entrenamiento para generar el árbol entrenamiento grande
    98. 98. Validación cruzadaPasos a seguir Para generar por ejemplo un árbol de decisión1. Se divide los datos de entrenamiento en 10 grupos (por defecto) .2. Separo un grupo y uso el resto (9) para generar el árbol, midiendo el porcentaje de clasificación del grupo que no ha sido utilizado para generar el árbol.3. Repito el paso 2 para cada grupo por tanto realizo el paso 2 10 veces4. Promedio todos los resultados, habiendo generado 10 arboles No hay problema si el5. El árbol definitivo se genera utilizando TODOS LOS GRUPOS. tiempo de computo OFF- LINE para generar el modelo es bajo como es en el caso de arboles de decisión
    99. 99. Clasificador bayesianoEntrenamiento y decisión del clasificador
    100. 100. Razonamiento bayesianoClasificador bayesiano Enfoque probabilístico de la Probabilidad de que un inferencia. patrón pertenezca a una clase Está basado en asumir que las incógnitas de interés siguen distribuciones probabilísticas. Clase A Clase C Se puede conseguir una solución óptima por medio de Clase B estas distribuciones y datos observados.
    101. 101. Aprendizaje bayesianoConsiste en... El aprendizaje se puede ver como el proceso de Conocimiento previo encontrar la hipótesis más probable, dado un conjunto Entrenamiento de ejemplos de entrenamiento y un conocimiento a priori sobre Hipótesis la probabilidad de cada hipótesis. Clasificación
    102. 102. Aprendizaje bayesianoCaracteristicas Cada ejemplo de entrenamiento afecta a la Esto es más efectivo que probabilidad de las hipótesis. descartar directamente las hipótesis incompatibles. Se puede incluir conocimiento a priori: Probabilidad de cada hipótesis Distribución de probabilidades de los ejemplos. Una nueva instancia es clasificada como función de la predicción de múltiples hipótesis, ponderadas por sus probabilidades.
    103. 103. Teorema de Bayes En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763 que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. Termino a calcular para Termino a calcular a partir de clasificar un nuevo ejemplo los ejemplos de entrenamiento Thomas Bayes (Londres, Inglaterra, 1702 - Tunbridge Wells, 1761) fue un matemático h Hipótesis (Objeto) británico. D Conjunto de valores de los atributos
    104. 104. Teorema de BayesProbabilidades P(h) Probabilidad a priori de un de los objetos P(D) Probabilidad a priori de que los atributos tengan unos ciertos valores P(h|D) Probabilidad a posteriori de que una instancia P(h|D) Dado que los atributos muestran ciertos valores. pertenezca a una clase Este es el dato a obtener para clasificar una nueva instancia P(D|h) Probabilidad a posteriori de que los atributos posean unos ciertos valores P(D|h) Dado que la instancia pertenece a una cierta clase
    105. 105. Teorema de BayesCalculo de probabilidades P(h) La probabilidad a priori de una clase se puede P(h) calcular como el porcentaje de ejemplos de Fácil de calcular Suponiendo que los ejemplos de entrenamiento pertenecientes a esa clase. entrenamiento se eligen aleatoriamente P(D) Para estimar la probabilidad de que los P(D) atributos tengan un cierto conjunto de valores esMuy difícil de calcular. Para calcular la necesario disponer de un número extremadamente distribución que siguen una serie de atributos necesitamos un conjunto elevado de ejemplos de entrenamiento. de entrenamiento muy grande Si los atributos son continuos se ha de estimarEstimar otros tipos dedistribuciones es funciones de densidad. Por lo general gausianascomplicadisimo
    106. 106. Teorema de BayesCalculo de probabilidades II P(D|h) Complicado de obtener Similar a estimar la probabilidad de que los atributos posean un cierto conjunto de valores Solo aplicable a una fracción de las instancias de entrenamiento: aquellas cuya clase es h
    107. 107. Aprendizaje bayesianoClase a la que pertenece una nueva instancia Por ejemplo aplicamos el teorema de Bayes para dos clases Para mas ejemplos tan solo tendríamos que realizar varias comprobaciones siguiendo un algoritmo de comparación para obtener el máximo Con denominadores comunes tan solo hemos de calcular Por lo que la nueva instancia pertenece a la clase A
    108. 108. Aprendizaje bayesianoVentajas y desventajas Ventajas Es un aprendizaje casi optimo Desventajas Necesidad de un conocimiento a priori. Si no se tiene este conocimiento estas probabilidades han de ser estimadas. Coste computacional alto para generar el modelo. En el caso general es lineal con el número de hipótesis candidatas. Se ha de disponer de un gran número de ejemplos de entrenamiento
    109. 109. Clasificador bayesiano ingenuoNaïve Bayes Método muy utilizado en la práctica. Permite aplicar el aprendizaje bayesiano incluso cuando el número de ejemplos disponible es pequeño. Se basa en: Es a causa de estas simplificaciones, que se suelen resumir en la Suponer que todos los atributos son independientes hipótesis de independencia entre las (más fácil estimar las probabilidades). variables predictoras, que recibe el apelativo de ingenuo. En la practica esta suposición se cuando elen la gran ¿Por qué es posible aplicar Naïve Bayes da número de ejemplos es pequeño? mayoría de los casos atributos son independientes, se cumple: Cuando dos P(at =val,at =val )=P(at =val)⋅P(at =val ) Una función de densidad de probabilidad univariante es mucho más fácil de estimar que una multivariante.
    110. 110. Aprendizaje bayesianoConclusiones Capacidad de representación alta: las fronteras de decisión pueden tener cualquier forma. Legibilidad: Baja, debido a que los modelos son funciones de densidad de probabilidad. Tiempo de computo on-line: Rápido una vez que el modelo ha sido estimado. Tiempo de computo off-line: Lento: es necesario estimar las funciones de densidad de probabilidad a partir de las instancias de entrenamiento. Parámetros a ajustar: Relacionados con el tipo de función de densidad de a ajustar Parametros probabilidad de los atributos. Naïve Bayes es fácil de utilizar, pero en general el aprendizaje Bayesiano no lo es. Robustez ante instancias de entrenamiento ruidosas: Muy alta, dado que el método está basado en probabilidades. Sobrepujaste (overfitting): Imposible obtener sobreajuste al trabajar con probabilidades.
    111. 111. Reconocimiento de objetosBasados en puntos significativos
    112. 112. Reconocimiento de objetosBasados en puntos significativos Para cualquier objeto en una imagen, se pueden extraer una serie de puntos de interés para proporcionar una descripción del objeto. Es importante que las características extraídas de la imagen de entrenamiento sean detectables incluso bajo cambios de Estos puntos generalmente se encuentran en regiones escala de la imagen, ruido e iluminación. de alto contraste de la imagen, tales como los bordes del objeto.
    113. 113. Reconocimiento de objetosScale-invariant feature transform Se trata de un algoritmo para detectar y describir las características locales de las imágenes. Fue publicado por David Lowe en 1999. Los puntos clave de los objetos son extraídos de una serie de imágenes de referencia y almacenados en una base de datos. conalmacenan el conjunto de puntos significativos Se sus características para cada objeto El objeto se clasifica por el vecino mas cercano en la base de datos.
    114. 114. Reconocimiento de objetosBasados en puntos significativos Invariantes a la geometría: Rotación, traslación, escala... Invariantes a características fotometricas: Brillo, exposición...
    115. 115. Reconocimiento de objetosHaar features
    116. 116. Haar-like featuresDetectores basados en caracteristicas tipo Haar El esquema del algoritmo está inspirado en el modelo de Viola-Jones 2001 paradelaalgoritmos de objetos en tiempoViola y Michel Jones en Una serie detección propuesto por Paul real Estos detectores se basan en una cascada de clasificadores que es explorada por toda la imagen en múltiples escalas y localizaciones. Boost Adaptative AdaBoost: Cada etapa de la cascada se basa en el uso de simples características tipo Haar seleccionadas y combinadas mediante AdaBoost durante el entrenamiento.
    117. 117. Haar-like featuresRapidez del clasificador La eficiencia de este esquema reside en el hecho de que los negativos van siendo eliminados progresivamente. Si Si Si Imagen Clasificador 1 Clasificador 2 ...... Clasificador N Positivo No No No Negativo Muy utilizado para la detección de objetos en tiempo real
    118. 118. Haar-like features Detección de caras son 12x12 para ojos1 y nariz, nuevamente de 2, 3 y 4). nsionadas con 10 etapas, una 98% y una tasa de falsos a etapa ha sido entrenada con s, utilizando 900 ejemplos de st.cabamos de dar en el últimoa tasa de falsos positivos haya Fig. 5. Zonas de interés en una cara detectada para ojo izquierdo, omagnitud respecto al detector derecho, nariz y boca.un descenso tan acusado? La por Paul Viola y Algunas características tipo Haar propuestas boca son elementos con Jones Michel una que la de la cara entera, de III. RESULTADOS nformación estructural que

    ×