Ejemplo Weka Titanic

11,821 views

Published on

Abarca “Reglas de Asociación y Dependencias” a partir de datos sobre el hundimiento del Titanic. Se hace uso tambipen de árboles.

Los datos se encuentran en el fichero “titanic.arff” y corresponden a las características de los 2.201 pasajeros del Titanic. Estos datos son reales y se han obtenido de: "Report on the Loss of the ‘Titanic’ (S.S.)" (1990), British Board of Trade Inquiry Report_ (reprint), Gloucester, UK: Allan Sutton Publishing.

Published in: Technology, Business
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
11,821
On SlideShare
0
From Embeds
0
Number of Embeds
101
Actions
Shares
0
Downloads
576
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Ejemplo Weka Titanic

  1. 1. Ejemplo en WEKA TITANIC
  2. 2. Abarca “Reglas de Asociación y Dependencias” a  partir de datos sobre el hundimiento del Titanic. Los datos se encuentran en el fichero “titanic.arff” y  corresponden a las características de los 2.201 pasajeros del Titanic. Estos datos son reales y se han obtenido de: quot;Report on the Loss of the ‘Titanic’ (S.S.)quot; (1990), British Board of Trade Inquiry Report_ (reprint), Gloucester, UK: Allan Sutton Publishing.
  3. 3. Titanic Database:  relation titanic  attribute C {crew,first,second,third}  attribute age {adu,enf}  attribute sex {f,m}  attribute Class {mort,surv}  Data:  crew,adu,m,surv  crew,adu,m,surv  crew,adu,f,surv  third,adu,m,mort  ... 
  4. 4. Para este ejemplo sólo se van a considerar cuatro  variables: • Clase (0 = tripulación, 1 = primera, 2 = segunda, 3 = tercera) • Edad (1 = adulto, 0 = niño) • Sexo (1 = hombre, 0 = mujer) • Sobrevivió (1 = sí, 0 = no) Para ello, vamos a ver que reglas de asociación  interesantes podemos extraer de estos atributos. Para ejecutar los métodos en Weka de reglas de asociaciación, seleccionamos la ventana de associate.
  5. 5. Entre otros, este sistema de minería de datos provee  el paquete “WEKA.associations.Apriori” que contiene la implementación del algoritmo de aprendizaje de reglas de asociación Apriori. Podemos configurar este algoritmo con varias opciones: con la opción “UpperBoundMinSupport” indicamos el límite superior de cobertura requerido para aceptar un conjunto de ítems. Si no se encuentran conjuntos de ítems suficientes  para generar las reglas requeridas se va disminuyendo el límite hasta llegar al límite inferior (opción “LowerBoundMinSupport”).
  6. 6. Con la opción “minMetric” indicamos la confianza  mínima (u otras métricas dependiendo del criterio de ordenación) para mostrar una regla de asociación; y con la opción “numRules” indicamos el número de reglas que deseamos que aparezcan en pantalla. La ordenación de estas reglas en pantalla puede  configurarse mediante la opción “MetricType”, algunas opciones que se pueden utilizar son: confianza de la regla, lift (confianza divido por el número de ejemplos cubiertos por la parte derecha de la regla), y otras más elaboradas.
  7. 7. En cada regla, tenemos la cobertura de la parte izquierda y  de la regla, así como la confianza de la regla. Podemos conocer alguna regla interesante aunque otras los son menos. Por ejemplo, la regla 1 indica que, como era de esperar toda la tripulación es adulta. La regla 2 nos indica lo mismo, pero teniendo en cuenta a los varones. Parecidas conclusiones podemos sacar de las reglas 4, 5 y 6.  La regla 3 nos indica que los varones que murieron fueron en su mayoría adultos (97%). La regla 7 destaca que la mayoría que murieron fueron adultos (97%). Y finalmente la 10 informa que la mayoría de los muertos fueron hombres (92%).
  8. 8. Cabe destacar que la calidad de las reglas de asociación que  aprendamos muchas veces viene lastrada por la presencia de atributos que estén fuertemente descompensados. Por ejemplo, en este caso la escasa presencia de niños provoca que no aparezcan en las reglas de asociación, ya que las reglas con este ítemset poseen una baja cobertura y son filtradas. Podemos mitigar parcialmente este fenómeno si cambiamos el método de selección de reglas. A CONTINUACION VEREMOS EL COMPORTAMIENTO DE  LOS DEMAS ALGORITMOS: FiltroAsociado, HotSpot, A priori-Predictivo y el Tertius.
  9. 9. Es igual al Apriori normal, devuelve los mismos resultados  para este caso.
  10. 10. Actúa de manera distinta al Usar un valor de conteo mínimo  para los segmentos, en este caso de 726 instancias, usa también un factor máximo de ramificación de 2, y una mejora mínima en margen del 1%. Con estas métricas para nuestro ejemplo devuelve valores  de: No sobrevivieron el 67.7% (1490/2201)  De sexo masculino el 78.8% (1364/1731)   Eran adultos el 79.72% (1329/1667) De ambos sexos adultos: 68.74% (1438/2092) 
  11. 11. Es más exhaustivo y combina las probabilidades de forma  distinta.
  12. 12. Consideró 440 hipótesis de las cuales exploró 332, Así: 
  13. 13. Usando el “ADTree ” obtenemos los resultados: 
  14. 14. El árbol generado para “ADTree” será 
  15. 15. Usando“FT” será 
  16. 16. El árbol generado para “FT” será 
  17. 17. Usando“J48” será 
  18. 18. El árbol generado para “J48” será 
  19. 19. Usando “LADTree” será 
  20. 20. El árbol generado para “LADTree” será 
  21. 21. Usando “LMT” será 
  22. 22. El árbol generado para “LMT” será 
  23. 23. Usando “NBTree” será 
  24. 24. El árbol generado para “NBTree” será 
  25. 25. Y Usando “REPTree” será 
  26. 26. El árbol generado para “REPtree” será 
  27. 27. La explicación inicial del ejemplo fue extraída  de: http://users.dsic.upv.es/~jorallo/docent/doctora t/weka.p

×