Vecinos Proximos

4,804 views

Published on

CLASIFICACION SUPERVISADA

0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
4,804
On SlideShare
0
From Embeds
0
Number of Embeds
20
Actions
Shares
0
Downloads
92
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Vecinos Proximos

  1. 1. Autor: Guadalupe Ortega Castillo [email_address] ALGORITMOS DE CLASIFICACIÓN POR VECINDAD Universidad Técnica Particular de Loja Escuela de Ciencias de la Computación
  2. 2. <ul><li>Los criterios de vecindad son una de las aproximaciones más conocidas dentro de las técnicas de clasificación supervisada, que exigen la definición de una cierta medida de distancia entre los distintos elementos del espacio de representación. </li></ul><ul><li>Una de las ventajas que presenta ésta técnica de clasificación basadas en criterios de vecindad es su simplicidad conceptual, que quiere decir: la clasificación de un nuevo punto del espacio de representación, se calcula en función de las clases , conocidas de los puntos más próximos a él. </li></ul>
  3. 3. <ul><li>La idea fundamental sobre la que se apoyan éstas técnicas de clasificación se basa en muestras pertenecientes a una misma clase. </li></ul>
  4. 5. <ul><li>1.Se elige un número de vecinos próximos (k). </li></ul><ul><li>2. Se elige una métrica, es decir, una función para calcular la </li></ul><ul><li>distancia entre dos ejemplos. </li></ul><ul><li>3. Para cada ejemplo x: </li></ul><ul><li>a. Se calcula la distancia al resto de los ejemplos. </li></ul><ul><li>b. Se seleccionan los k vecinos más cercanos. </li></ul><ul><li>c. La clase de x es la más representada entre estos k. </li></ul><ul><li>d. Resolución de empates. Si coincide el número de vecinos de dos o más clases, se escoge la clase con mayor probabilidad a priori. Si las probabilidades a priori coinciden, se escoge una de las clases en disputa al azar. </li></ul>
  5. 6. <ul><li>1.Se elige una métrica. </li></ul><ul><li>2. Se calcula la distancia entre todos los pares de ejemplos. </li></ul><ul><li>3. Para cada ejemplo x: </li></ul><ul><li>1. Se ordenan todos los ejemplos de menor a mayor distancia a x. </li></ul><ul><li>2. Se hacen n-1 clasificaciones de x, una para cada valor </li></ul><ul><li>de k. Se reservan. </li></ul><ul><li>4. Se calcula el porcentaje de error para cada valor de k. </li></ul>
  6. 7. <ul><li>Las instancias se almacenan en memoria, de tal forma que cuando llega una nueva instancia cuyo valor es desconocido se intenta relacionar ésta con las instancias almacenadas (cuya clase o valor es conocida) buscando las que más se parecen , con el objetivo de usar los valores de éstas instancias similares para estimar los valores a obtener de la nueva instancia en cuestión. </li></ul><ul><li>Todo el trabajo en el aprendizaje basado en instancias se hace cuando llega una instancia a clasificar y no cuando se procesa el conjunto de entrenamiento. En éste sentido se trata de un método retardado o perezoso, ya que retrasa el trabajo real tanto como sea posible. </li></ul>
  7. 8. <ul><li>En el aprendizaje basado en instancias, cada nueva instancia se compara con las existentes usando una métrica de distancia, y la instancia más próxima se usa para asignar su clase a la instancia nueva. La variante más sencilla de éste método de clasificación es conocido como “el vecino más próximo” (nearest-neighbor). Otra variante conocida como el método de los “k vecinos más próximos” (k- nearest-neighbor), usa k vecinos más próximos, en cuyo caso la clase mayoritaria de éstos k vecinos se asigna a la nueva instancia. </li></ul>
  8. 10. <ul><li>En la figura anterior se observa que a la nueva instancia N se le ha de asignar la clase a ya que, entre los vecinos más próximos (marcados en un círculo), hay más instancias de la clase a que de la b. </li></ul><ul><li>El aprendizaje basado en instancias es muy útil para trabajar sobre tipos de datos no estandar, como los textos o multimedia. El único requerimiento para incluir un tipo de datos es la existencia de una métrica apropiada de distancia para formalizar el concepto de similitud. </li></ul>
  9. 11. <ul><li>Cualquier técnica de aprendizaje supervisado que admita respuesta continua y predictor continuo puede usarse para estimar no paramétricamente la función de regresión. </li></ul><ul><li>Calcular la distancia entre dos instancias es trivial cuando tienen un atributo numérico: bastan con calcular la diferencia entre sus valores. </li></ul><ul><li>Cuando hay varios atributos numéricos se puede usar la distancia euclídea, asumiendo que los atributos están normalizados y que son de igual importancia. </li></ul>
  10. 12. <ul><li>1 Aprendizaje Automático: Conceptos básicos y avanzados. Aspectos prácticos utilizando el software Weka. Basilio Sierra Araujo. Madrid, 2006. </li></ul><ul><li>2 Introducción a la Minería de Datos. José Hernández Orallo. Madrid, 2004. </li></ul>

×