Gestion Del Conocimiento

3,437 views

Published on

fábrica de ideas

Published in: Education, Business
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
3,437
On SlideShare
0
From Embeds
0
Number of Embeds
54
Actions
Shares
0
Downloads
96
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide
  • Antes de comenzar a explicar el proceso experimental introduciremos una serie de definiciones para conocer el vocabulario que se usa en estos ámbitos. Cuando realizamos un experimento controlado queremos estudiar el resultado cuando variamos algunas variables de entrada del proceso. Aquellas variables que queremos estudiar para ver el efecto de los cambios en las variables independientes se llaman VARIABLES DEPENDIENTES (O VARIABLES RESPUESTA). A menudo hay una única variable dependiente en los experimentos. Aquellas variables que son manipuladas y controladas se llaman VARIABLES INDEPENDIENTES. Ejemplo: Queremos evaluar el efecto de un nuevo método de desarrollo en la productividad del personal. Queremos introducir un método orientado a objetos en lugar de un método orientado al proceso. Variable dependiente: productividad. Variable independiente: el método de desarrollo, la experiencia, las herramientas y el ambiente. Un experimento estudia el efecto de cambiar una o mas variables independientes. Aquellas variables se llaman FACTORES. El resto de variables independientes son controladas en un nivel fijo durante el experimento, de otra manera no podríamos decir si el factor u otra variable causa el efecto. Un tratamiento es un determinado valor para un factor. En nuestro ejemplo: El factor es el método de desarrollo, ya que queremos evaluar el efecto cuando cambiamos el método. Y utilizamos dos tratamientos del factor: El método viejo y el nuevo. Los tratamientos serán aplicados Los tratamientos serán aplicados a una combinación de OBJETOS Y SUJETOS. Un objeto puede ser un documento que debe ser revisado con diferentes técnicas de inspección. Las personas que aplican el tratamiento son los SUJETOS
  • Enmascarada: tambi é n recibe el nombre de variable confundida (confounded variables). Es una variable extra ñ a que tiene la propiedad de variar simultaneamente con los cambios en los niveles de la variable independiente. Esta circnstancia hace que rivalice con la variable independiente como posible causa. La selecci ó n de las variables independientes no siempre es f á cil y requiere conocimiento del dominio del experimento. Son las que van a influir en las dependientes, y por tanto la selecci ó n se hace conjuntamente. Ellas llevan impl í citamente la escala de medida y el rango. Van a determinar los tratamientos, como veremos m á s adelante en el dise ñ o de experimentos Las variables dependientes o respuesta no siempre son directamente medibles, cuando se trabaja con medidas indirectas hay que ser cuidadoso en su elecci ó n pues repercutir á en las conclusiones a las que lleguemos. C ó mo antes ir á asociada la escala y el rango. El resto de las variables que aparecen en el experimento son aquellas que pueden influir en la variable dependiente de forma indirecta, unas se controlan en el dise ñ o, esto es, se obliga a que tomen determinados valores, por ejemplo se eligen inspectores que hayan trabajado con los m é todos a probar un tiempo determinado(experiencia), con lo cual pueden aparecer en el dise ñ o nuevos grupos de tratamiento. Otras se aleatorizan, aparecen en el dise ñ o como un error aleatorio, para el caso de la experiencia se pueden clasificar por experiencia a los sujetos y asignar al azar el mismo n ú mero de cada clase a cada tratamiento. Y hay otras que var í an conjuntamente con la variable independiente, con lo cual rivalizan con ella en la interpretaci ó n de los resultados. Si la variable independiente es una t é cnica nueva de inspecci ó n y junto con la t é cnica novedosa se cambi ó el m é todo de dise ñ o, la variaci ó n de los resultados no sabremos a que se debe... Despues de identificar las variables de un experimento según la clasificacion anterior debemos minimizar el sesgo de las enmascaradas que sean conocidas. Para ello se perfilan dos soluciones: bien pasan a ser controladas mediante alguna tecnica de control, la cual depende del tipo de diseño experimental o bien se consideran aleatorias, conviertiendose en una fuente de error debido al azar. Esta claro entonces, que las técnicas para controlar las variables extrañas sirven para disminuir los errores aleatorios o reducir los efectos de las enmascaradas, o ambos
  • Un tratamiento es un valor particular de un factor (por ejemplo los dos tratamientos serían el antiguo y el nuevo método de desarrollo). Los tratamientos son aplicados a combinaciones de sujetos y objetos. Un objeto puede ser un documento revisado con diferentes técnicas de inspección. La gente que aplica los tratamientos son los sujetos . Un experimento consiste en un conjunto de tests (también llamados trials) siendo cada test la combinación de un tratamiento, un objeto y un sujeto.
  • Las fases principales de un experimento son: Determinar los objetivos del mismo, el porqué del experimento Planificar el experimento, la salida más importante de esta fase es el diseño del experimento que determinará el tipo de análisis estadístico que podemos hacer Llevarlo a cabo con un entrenamiento piloto, normalmente Analizar e interpretar los resultados: el tipo de análisis estará condicionado por la hipótesis del experimento, el tipo de variables que hayamos elegido (escala) y el diseño En la discusión se debe incluir por que es relevante la hipótesis del estudio, por que se ha hecho el diseño, como se han salvado las amenazas a la validez del mismo o por qué se han preferido soslayar unas y no otras, la aplicación de las conclusiones o su repercusión en la comunidad de I. Del software, si hay trabajos futuros cuales son y por que etc A partir de las conclusiones de un experimento se pueden poner en marcha nuevos estudios para: Confirmar los hallazgos, Extender su validez, Descubrir nuevo conocimiento (modelos o hipótesis) sugerido por el experimento Un proceso provee los pasos a seguir en una determinada actividad, por ejemplo el desarrollo de software Los procesos son importantes ya que proveen checklists y guías sobre que hacer y cómo hacerlo. El proceso experimental básico puede ser utilizado para estudios empíricos distintos de los experimentos, pero debe ser adaptado, por ejemplo realizar una encuesta mediante el uso de correo electrónico o un caso de estudio de un proyecto de desarrollo de software El punto partida de experimento es tener la idea de que un experimento puede ser una manera posible para evaluar lo que estamos interesados es decir tenemos que estar convencidos de que un experimento es la manera apropiada para responder aquella pregunta que queremos investigar
  • El propósito de utilizar una plantilla para la definición del objetivo de un experimento es asegurar que todos los aspectos importantes de un experimento son definidos antes que se realice la planificación y la ejecución del experimento. Objeto de estudio. Es la entidad que es estudiada en el experimento. Pueden ser productos, procesos, recursos, modelos, métricas o teorías. Propósito. Define cuál es la intención del experimento. Puede ser evaluar el impacto de dos técnicas diferentes, o caracterizar la curva de aprendizaje de una organización. Enfoque de calidad. Es el primer efecto estudiado en el experimento. Puede ser la efectividad, el costo, la fiabilidad, etc. Perspectiva. Se refiere al punto de vista desde el cual los resultados del experimento son interpretados. Contexto. Es el “ambiente” en el cual se ejecuta el experimento. El contexto describe brevemente cuáles son los sujetos involucrados en el experimento y que artefactos de software son utilizados en el experimento. El primer paso a dar en el diseño de un experimento es definir claramente el Por qué del mismo. El modelo de definición de objetivos de wholin es un patrón que ayuda a sistematizar la definición de objetivos, y de ordenarlos para que no se olvide ningún aspecto relevante en la definición del experimento.   La planificación nos indicará cómo. El ejemplo corresponde a un artículo de Regnell99 (ref de wholin)
  • Gestion Del Conocimiento

    1. 1. GESTIÓN DEL CONOCIMIENTO PORTADA GESTIÓN DEL CONOCIMIENTO
    2. 2. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN <ul><li>INTRODUCCIÓN </li></ul><ul><li>INGENIERÍA DEL SOFTWARE </li></ul><ul><li>FÁBRICA DE EXPERIENCIAS </li></ul><ul><li>FAMILIAS DE ESTUDIOS </li></ul><ul><li>CONCLUSIONES </li></ul>
    3. 3. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN <ul><li>INTRODUCCIÓN </li></ul><ul><li>INGENIERÍA DEL SOFTWARE </li></ul><ul><li>FÁBRICA DE EXPERIENCIAS </li></ul><ul><li>FAMILIAS DE ESTUDIOS </li></ul><ul><li>CONCLUSIONES </li></ul>
    4. 4. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN NECESIDADES ORGANIZACIONALES (Basili et al., 2001) <ul><li>Comprender los procesos y productos </li></ul><ul><li>Evaluar los éxitos y fracasos </li></ul><ul><li>Aprender de las experiencias </li></ul><ul><li>Empaquetar experiencias exitosas </li></ul><ul><li>Reutilizar experiencias exitosas </li></ul>
    5. 5. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN NECESIDADES ORGANIZACIONALES (Basili et al., 2001) <ul><li>Experiencia perdida </li></ul><ul><ul><li>Un empleado se va y la organización pierde toda su experiencia y ni siquiera sabe la experiencia que ha perdido </li></ul></ul><ul><ul><li>Un empleado aprende mucho en un proyecto, pero no tiene tiempo de empaquetar y difundir su conocimiento </li></ul></ul><ul><ul><li>Un jefe de proyecto infravalora de nuevo el tiempo que requiere el desarrollo de un producto porque no dispone de datos recogidos de proyectos anteriores </li></ul></ul>
    6. 6. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN NECESIDADES ORGANIZACIONALES (Basili et al., 2001) <ul><li>Experiencia redescubierta </li></ul><ul><ul><li>Un consultor invierte tres semanas en desarrollar un curso que ya existe porque no sabe que ya ha sido preparado </li></ul></ul><ul><ul><li>Alguien repite un error de 35.000 euros para el cual existe una fácil solución </li></ul></ul>
    7. 7. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN NECESIDADES ORGANIZACIONALES (Basili et al., 2001) <ul><li>Desarrollo del negocio </li></ul><ul><li>Un consultor hace una promesa a un cliente, pero ahora está ocupado con otro trabajo y nadie cumple la promesa porque nadie sabe nada acerca de la misma </li></ul><ul><li>Desarrollo del personal </li></ul><ul><li>- Se contrata un nuevo empleado pero se le considera una carga por mucho tiempo ya que necesita ayuda detallada de sus compañeros </li></ul><ul><li>- Se rechaza una petición de un empleado para asistir a un curso, ya que sería “demasiado valioso en el mercado” </li></ul>
    8. 8. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Arquitectura de Gestión de Conocimiento (Lawton, 2001)
    9. 9. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN <ul><li>INTRODUCCIÓN </li></ul><ul><li>INGENIERÍA DEL SOFTWARE </li></ul><ul><li>FÁBRICA DE EXPERIENCIAS </li></ul><ul><li>FAMILIAS DE ESTUDIOS </li></ul><ul><li>CONCLUSIONES </li></ul>
    10. 10. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE INGENIERÍA DEL SOFTWARE (Lindvall y Rus, 2003) “ producir mejor software, de una forma más rápida y económica, así como tomar mejores decisiones” <ul><li>Localización de fuentes de conocimiento </li></ul><ul><li>Reutilización de experiencias </li></ul><ul><li>Mejorar los procesos de desarrollo del software </li></ul><ul><li>Reutilización de artefactos del proceso de desarrollo </li></ul>
    11. 11. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE <ul><li>Actividades generales de KM aplicables a IS </li></ul><ul><ul><ul><li>- reutilización de activos </li></ul></ul></ul><ul><ul><ul><li>- gestión de documentación </li></ul></ul></ul><ul><ul><ul><li>- colaboración </li></ul></ul></ul><ul><ul><ul><li>gestión de competencias </li></ul></ul></ul><ul><ul><ul><li>redes de expertos </li></ul></ul></ul>
    12. 12. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE <ul><li>KM en organizaciones software </li></ul><ul><li>gestión de configuración y control de versiones </li></ul><ul><li>design rationale </li></ul><ul><li>trazabilidad </li></ul><ul><li>informe de problemas y trazabilidad de defectos </li></ul><ul><li>herramientas CASE y entornos de desarrollo de software </li></ul>
    13. 13. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    14. 14. <ul><ul><li>Proceso de gestión </li></ul></ul><ul><ul><li>Este proceso persigue organizar, monitorizar, y controlar el inicio y el desempeño de cualquier proceso para conseguir sus objetivos de acuerdo a los objetivos de negocio de la organización. </li></ul></ul>PROCESOS ORGANIZACIONALES <ul><ul><li>Proceso de mejora </li></ul></ul><ul><ul><li>Este proceso sirve para establecer, evaluar, medir, control y mejorar los procesos del ciclo de vida del software. Se compone de tres subprocesos: establecimiento de procesos, evaluación de procesos y mejora de procesos </li></ul></ul>GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    15. 15. <ul><ul><li> Proceso de infraestructura </li></ul></ul><ul><ul><ul><li>Este proceso permite mantener una infraestructura fiable y estable necesaria para soportar el desempeño de los otros procesos. Esta infraestructura puede incluir hardware, software, métodos, herramientas, técnicas, estándares y facilidades para el desarrollo, operación o mantenimiento. </li></ul></ul></ul>PROCESOS ORGANIZACIONALES <ul><ul><li> Proceso de recursos humanos </li></ul></ul><ul><ul><ul><li>Este proceso sirve para proporcionar a la organización los recursos humanos adecuados y mantener su competencia, consistente con las necesidades de la empresa. Este proceso incluye tres subprocesos: Gestión de Recursos Humanos, Formación y Gestión del Conocimiento . </li></ul></ul></ul>GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    16. 16. PROCESOS ORGANIZACIONALES Proceso de gestión de activos Este proceso sirve para gestionar la vida de los activos reutilizables desde su concepción hasta su retirada. Proceso de gestión del programa de reutilización Este proceso sirve para planificar, gestionar, controlar y monitorizar el programa de reutilización de una organización y explotar de forma sistemática las oportunidades de reutilización. Proceso de ingeniería de dominio Este proceso sirve para desarrollar y mantener modelos de dominio, arquitecturas de dominio y activos para el dominio. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    17. 17. PROCESOS ORGANIZACIONALES GESTIÓN DEL CONOCIMIENTO Subproceso de gestión del conocimiento Propósito : “ asegurar que el conocimiento, la información y las habilidades individuales se recogen, comparten, reutilizan y mejoran a lo largo de la organización ”. Resultados: - se establece y mantiene una infraestructura para la compartición de la información común y de dominio a través de la organización - el conocimiento se encuentra disponible readily y compartido a lo largo de la organización - la organización seleccionará la estrategia de gestión del conocimiento apropiada. ING. SOFTWARE
    18. 18. PROCESOS ORGANIZACIONALES GESTIÓN DEL CONOCIMIENTO Tareas relativas a la gestión del conocimiento - el director planificará los requisitos para gestionar los activos de conocimiento de la organización, incluyendo la infraestructura y la formación para soportar los contribuidores y los usuarios de los activos de conocimiento de la organización, el esquema de clasificación y los criterios para estos activos. - el director establecerá una red de expertos dentro de la organización y se asegurará que se mantiene actualizada. - el director establecerá un mecanismo para soportar el intercambio de información entre expertos y el flujo de la información de los expertos en los proyectos de la organización. - se llevará a cabo la gestión de configuración de los activos de acuerdo con el proceso de gestión de configuración. ING. SOFTWARE
    19. 19. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE <ul><li>TÉCNICAS </li></ul><ul><li>modelos de predicción </li></ul><ul><li>lecciones aprendidas, patrones, y mejores prácticas </li></ul><ul><li>sistemas basados en casos </li></ul><ul><li>descubrimiento de conocimiento </li></ul><ul><li>- Redes externas como Software Process Improvement Network (SPIN) o los grupos de interés especiales de IEEE o ACM. </li></ul><ul><li>- Oracle Support Center </li></ul><ul><li>- Estándares de ISO, IEEE, etc. </li></ul>
    20. 20. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE CARACTERIZACIÓN DEL CONOCIMIENTO EN DISEÑO DE MICRO ARQUITECTURAS OO (Garzás y Piattini, 2005) Principios . Patrones. Heurísticas. Buenas Prácticas. Malos Olores. Defectos. Refactorizaciones.
    21. 21. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE <ul><li>Los componentes del conocimiento en OOD son difusos, poco definidos, ambiguos </li></ul>SITUACIÓN <ul><li>Apenas existen catálogos para elementos que no sean los patrones </li></ul><ul><li>Los catálogos existentes, son complejos de aplicar y todos distintos </li></ul><ul><li>Apenas existen métodos para el uso del conocimiento, que lo relacionen, midan, etc. </li></ul><ul><li>Respecto al conocimiento, es complejo saber qué, cuándo, cómo, dónde y efecto </li></ul>El conocimiento y experiencia práctica en OOD apenas se usa y apenas se conoce En los proyectos se siguen repitiendo los mismos problemas de diseño, resueltos hace tiempo, implicando costes IMPACTO
    22. 22. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    23. 23. 0..n cumple 0..n 0..n 0..n implica utilizar 0..n 0..n implica utilizar Declarativo Refactorización mecánica Conocimiento en Diseño de Micro Arquitecturas OO nombre propósito también conocido como motivación aplicabilidad participantes colaboración consecuencias diseño de ejemplo usos conocidos Regla recomendación Patrón estructura es introducido por 0..n { una, otra o las dos, pero siempre alguna} 0..n 0..n 1..n Operativo 0..n está compuesto de es introducido por
    24. 24. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    25. 25. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE <ul><li>TÉCNICAS </li></ul><ul><li>modelos de predicción </li></ul><ul><li>lecciones aprendidas, patrones, y mejores prácticas </li></ul><ul><li>sistemas basados en casos </li></ul><ul><li>descubrimiento de conocimiento </li></ul><ul><li>- Redes externas como Software Process Improvement Network (SPIN) o los grupos de interés especiales de IEEE o ACM. </li></ul><ul><li>- Oracle Support Services </li></ul><ul><li>- Estándares de ISO, IEEE, etc. </li></ul>
    26. 26. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    27. 27. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    28. 28. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    29. 29. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE SC7 System Software Documentation WG2 WG6 Process Assessment WG10 Tools And Environment WG4 Life Cycle Management WG7 System Assurance WG9 Business Planning Group SWG 1 Software Engineering Body of Knowledge WG20 ODP and Modeling Languages WG19 Secretariat Asset Management WG21 Architecture Management WG12 Functional Size Measurement Vocabulary WG22 SWG 5 Software Product Measurement and Evaluation Systems Quality Management WG23
    30. 30. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE Process Implementation and Assessment 12207 15271 90003 Software Engineering Systems Engineering 6592 9294 15910 18019 Documentation 15939 Measurement 15846 Configuration Management SC7’s legacy 3535 14759 16085 15026 Risk & Integrity Product 15289 Tools, Methods Documentation 15504 Process Assessment 15288 19760 19770 Asset Management 14764 Software maintenance 16326 Project Management Software Quality 9126 1459814756 Product packaging 9127 Product Evaluation 12119 Software Functional size measurement 14143 19761 20926 20968 24570 14102 14471 15940 18018 Tools and environment 5806 – 5807 – 6593 8631 – 8790 – 11411 SC7 Legacy Standards 10746, 13235 14750, 14752 14753, 14769 14771, 15414 15935, 19500 Specifications Vocabulary 12182 Software Body of Knowledge (SWEBOK) 19759 Foundation 14568 15474 15475 15476 CDIF 15437 15909 19501 8807 Modeling
    31. 31. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    32. 32. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    33. 33. GESTIÓN DEL CONOCIMIENTO ING. SOFTWARE
    34. 34. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN <ul><li>INTRODUCCIÓN </li></ul><ul><li>INGENIERÍA DEL SOFTWARE </li></ul><ul><li>FÁBRICA DE EXPERIENCIAS </li></ul><ul><li>FAMILIAS DE ESTUDIOS </li></ul><ul><li>CONCLUSIONES </li></ul>
    35. 35. QIP (Quality Improvement Paradigm) (Basili y Caldiera, 1995) GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA <ul><li>Es un proceso soportado por una aproximación dirigida por objetivos a la medición y control, y por una infraestructura organizativa denominada factoría de experiencia </li></ul>
    36. 36. QIP (Quality Improvement Paradigm) (Basili y Caldiera, 1995) GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA
    37. 37. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA
    38. 38. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA <ul><li>Una Base de Experiencia debe: </li></ul><ul><li>- Contener el conocimiento relevante para la organización </li></ul><ul><li>Residir en un marco de aprendizaje bien concebido </li></ul><ul><li>Disponer de metodologías que establezcan como se estructura la experiencia </li></ul><ul><li>Disponer de procesos, procedimientos y reglas que establezcan como se gestiona la experiencia diariamente </li></ul><ul><li>Estar automatizada lo máximo posible </li></ul>
    39. 39. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA <ul><li>Sistema de Gestión de Experiencias </li></ul><ul><li>- Caracterizar la organización e identificar los procesos y conocimientos actuales </li></ul><ul><li>Identificar los usuarios y definir roles de usuario </li></ul><ul><li>Desarrollar casos de uso </li></ul><ul><li>Definir tipos de paquetes (taxonomías) </li></ul><ul><li>Generar los atributos que describen los tipos de paquete </li></ul><ul><li>Definir valores aceptables para cada atributo </li></ul><ul><li>Definir un documentos de requisitos para el SGE </li></ul><ul><li>Construir, integrar e instalar el SGE </li></ul><ul><li>Evaluar y hacer evolucionar el SGE </li></ul>
    40. 40. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Fácil Posible Difícil <ul><li>Conocimiento documentado </li></ul><ul><li>Artículos </li></ul><ul><li>Propuestas </li></ul><ul><li>Presentaciones </li></ul><ul><li>Políticas de la organización </li></ul><ul><li>Conocimiento explícito no documentado </li></ul><ul><li>- Información de proyectos </li></ul><ul><li>Información de clientes </li></ul><ul><li>Políticas de la organización </li></ul><ul><li>Experiencia de los empleados </li></ul><ul><li>Procedimientos para las reuniones </li></ul><ul><li>Procedimientos para la contratación </li></ul><ul><li>Mejores prácticas para propuestas </li></ul><ul><li>Conocimiento tácito no documentado </li></ul><ul><li>Mejores prácticas para proyectos </li></ul><ul><li>Mejores prácticas para atención a clientes </li></ul>
    41. 41. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Beneficios para la organización - establecer un proceso de mejora de software sustentado y controlado por datos cuantitativos - producir un repositorio de datos y modelos software que estén basados empíricamente en la práctica diaria - desarrollar una organización de soporte interno que limite la sobrecarga y proporcione beneficios sustanciales de desempeño de coste y calidad - proporcionar un mecanismo para identificar, valorar, e incorporar en los procesos nuevas tecnologías que hayan demostrado ser valiosas en contextos similares - incorporar y soportar la reutilización en el proceso de desarrollo de software
    42. 42. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Aspectos de calidad de un repositorio Schneider y von Hunnius (2003) - guía al usuario , sobre todo para empezar reutilizando las experiencias - usabilidad , ya que una pobre usabilidad puede scare away al usuario - conformidad con el proceso , hacer de un proceso mejorado el centro del repositorio de experiencias, siguiendo la estructura del proceso subyacente - mecanismos de realimentación , pro medio de diferentes canales (correo electrónico, pizarras electrónicas, FAQ, contactos personales y telefónicos, etc.) - mantenibilidad , para que las reestructuraciones sean fáciles
    43. 43. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Modelo dinámico de creación de conocimiento de ingeniería del software. Dybå (2003)
    44. 44. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA FACTORES FACILITADORES CONOC. LOCAL GENERACIÓN CONOC. MEMORIA ORGANIZ. INTERPRET. CONOC. Orientación al negocio X XX X Implicación de los líderes X XX X Participación de los empleados XX XX X XX Preocupación por la medición XX X Explotación del conoc. existente X XX X X Exploración de nuevo conoc. XX XX
    45. 45. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Modelo SEKS (Software Eng.Knowledge-Sharing) Oliver et al. (2003)
    46. 46. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA
    47. 47. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA Mejora de 1991 -1995
    48. 48. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA
    49. 49. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA
    50. 50. GESTIÓN DEL CONOCIMIENTO FÁBRICA DE EXPERIENCIA
    51. 51. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN <ul><li>INTRODUCCIÓN </li></ul><ul><li>INGENIERÍA DEL SOFTWARE </li></ul><ul><li>FÁBRICA DE EXPERIENCIAS </li></ul><ul><li>FAMILIAS DE ESTUDIOS </li></ul><ul><li>CONCLUSIONES </li></ul>
    52. 52. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS FAMILIAS DE ESTUDIOS (BASILI ET AL., 2001) Criterios para la construcción de cuerpos de conocimiento en áreas de Ingeniería del Software: 1. Fijar hipótesis de alto nivel que sean de interés para la comunidad de Ingeniería del Software 2. Hipótesis detalladas escritas en un contexto que permitan un experimento bien definido 3. Variables de contexto, sugeridas por las hipótesis, que puedan modificarse para permitir variaciones en el diseño experimental 4. Una cantidad suficiente de información para que el experimento pueda ser replicado 5. Una comunidad de investigadores que comprendan la experimentación, la necesidad de réplica y que estén dispuestos a colaborar y replicar
    53. 53. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    54. 54. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Kish (1959) divide las investigaciones empíricas en: </li></ul><ul><ul><li>Encuestas son investigaciones en las que los sujetos del estudio son una muestra representativa de la población a la que pertenecen. </li></ul></ul><ul><ul><li>Casos de estudio son aquellos en los que no hay aleatoriedad de variables perturbadoras ni representatividad de los sujetos que componen la muestra de estudio. </li></ul></ul><ul><ul><li>Experimentos son las investigaciones en las que las posibles variables perturbadoras han sido aleatorizadas. </li></ul></ul>
    55. 55. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    56. 56. La experimentación provee una manera sistemática, disciplinada, cuantificable y controlada de evaluar actividades desarrolladas por humanos. Wohlin et al. (2000) GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    57. 57. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    58. 58. <ul><li>Variables dependientes (response, predictor) </li></ul><ul><ul><li>variables que queremos estudiar para ver el efecto de los cambios en las variables independientes </li></ul></ul><ul><li>Variables independientes (factor, state, predictand) </li></ul><ul><ul><li>variables cuyos valores son cambiados para estudiar su efecto </li></ul></ul><ul><li>Variables controladas (controlled) </li></ul><ul><ul><li>variables independientes que son controladas en un nivel fijo </li></ul></ul><ul><li>Variables enmascaradas (confounded) </li></ul><ul><ul><li>variables no controladas que varían simultáneamente con las variables independientes </li></ul></ul><ul><li>Variables aleatorias (randomized) </li></ul><ul><ul><li>Variables no controladas que se tratan como un error aleatorio. </li></ul></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    59. 59. <ul><li>Tratamientos </li></ul><ul><ul><li>un determinado valor para un factor </li></ul></ul><ul><li>Objetos </li></ul><ul><ul><li>procesos, productos, recursos </li></ul></ul><ul><li>Sujetos </li></ul><ul><ul><li>Personas que aplican los tratamientos a los objetos </li></ul></ul><ul><li>Experimento </li></ul><ul><ul><li>consiste en una serie tests (llamados trials) donde cada test es una combinación de tratamiento-objeto-sujeto </li></ul></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    60. 60. <ul><li>Variable dependiente : productividad </li></ul><ul><li>Variable independiente : método de desarrollo </li></ul><ul><li>Otras variables independientes : experiencia, ambiente, tipo de producto. </li></ul><ul><li>Utilizamos dos tratamientos del factor: método viejo y nuevo </li></ul><ul><li>Objetos : programas que deben ser desarrollados </li></ul><ul><li>Sujetos : el personal de desarrollo </li></ul><ul><li>Test: la persona N ( sujeto ) usa un nuevo método de desarrollo ( tratamiento ) para desarrollar un programa A ( objeto ) </li></ul>Evaluar el efecto de un nuevo método de desarrollo en la productividad del personal: método orientado a objetos en lugar de un método estructurado GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    61. 61. Proceso Experimental (Wohlin et al., 2000) GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    62. 62. <ul><li>La plantilla GQM para definición de objetivos: </li></ul><ul><ul><li>Analizar <Objeto(s) de estudio> </li></ul></ul><ul><ul><li>(¿qué es lo que se estudia?) </li></ul></ul><ul><ul><li>con el propósito de <Propósito> </li></ul></ul><ul><ul><li>(¿cuál es la intención?) </li></ul></ul><ul><ul><li>con respecto a <Enfoque de calidad> </li></ul></ul><ul><ul><li>(¿cuál es el efecto estudiado?) </li></ul></ul><ul><ul><li>desde el punto de vista del <Perspectiva> </li></ul></ul><ul><ul><li>(¿a la vista de quién?) </li></ul></ul><ul><ul><li>en el contexto de <Contexto> </li></ul></ul><ul><ul><li>(¿dónde se lleva a cabo el estudio?) </li></ul></ul>DEFINICIÓN Método orientado a objetos y estructurado Evaluar Productividad Investigador Estudiantes de grado y postgrado GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    63. 63. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    64. 64. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Off-line vs. On-line Evitar riesgos Incrementa costes Estudiantes vs. profesionales Reducir costes Facilitar el control ¿Generalización? Problemas de jueguete vs. problemas reales Reduce costes y tiempo ¿Generalización? Específicos vs. generales Reduce costes y tiempo ¿Generalización?
    65. 65. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS  Validez de constructo ¿ Hasta qu é punto las medidas seleccionadas miden las variables que aparecen en la hip ó tesis ?  Validez de las conclusiones ¿ Hasta qu é punto las conclusiones son estad í sticamente v á lidas ?  Validez interna ¿ Causa “ realmente ” el tratamiento el efecto ?  Validez externa ¿ Pueden generalizarse los resutados obtenidos ? Evaluación de la validez
    66. 66. <ul><li>Es necesario realizar una familia de experimentos para: </li></ul><ul><ul><li>Construir un cuerpo de conocimiento adecuado que nos permita extraer conclusiones útiles sobre algún tema en la ingeniería de software (Basili et al., 1999). </li></ul></ul><ul><ul><li>Para integrar los resultados y extrapolar ese conocimiento </li></ul></ul><ul><li>  </li></ul><ul><li>Varios estudios complementarios permiten obtener conclusiones más robustas cuando cada uno de ellos trata de atacar los puntos débiles del otro (Shull et al., 2002) </li></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    67. 67. <ul><li>Es importante lograr la fiabilidad de un experimento mediante su replicación (Brooks, et al., 1996): </li></ul><ul><ul><li>Réplicas internas : experimentos repetidos por los mismos investigadores que llevaron a cabo el original </li></ul></ul><ul><ul><li>Réplicas externas : experimentos que son realizados por otros experimentadores, que no tiene nada que ver con los originales </li></ul></ul><ul><ul><li>  </li></ul></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    68. 68. <ul><li>Según Basili et al. (1999), los tipos de réplicas se agrupan en tres categorías: </li></ul><ul><li>  </li></ul><ul><li>1. Réplicas que no hacen variar ninguna de las hipótesis de la investigación. </li></ul><ul><ul><li>1.1. Réplicas estrictas, que tratan de “duplicar” el experimento </li></ul></ul><ul><ul><li>1.2. Réplicas que varían la forma en que se ejecuta el experimento. </li></ul></ul><ul><li> 2. Réplicas que varían las hipótesis de la investigación </li></ul><ul><ul><li>2.1. Réplicas que modifican las variables independientes. </li></ul></ul><ul><ul><li>2.2. Réplicas que varían las variables dependientes. </li></ul></ul><ul><ul><li>2.3. Réplicas que modifican las variables de contexto en el entorno en que se evaluó la solución. </li></ul></ul><ul><ul><li>3.  Réplicas que amplían la teoría </li></ul></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    69. 69. <ul><li>Es necesario contar con “laboratory packages” (Basili et al., 1999; Shull et al.; 2002; Ciolkowski et al., 2002) </li></ul><ul><li>Los “laboratory packages” se diseñan específicamente para dar soporte a la replicación externa, pero también son valiosos para las réplicas internas </li></ul><ul><li>Los “laboratory packages” deben contener el material relacionado con: </li></ul><ul><ul><li>El análisis y objetivos del experimento </li></ul></ul><ul><ul><li>La motivación a la hora de realizar las decisiones claves del diseño, etc. </li></ul></ul><ul><ul><li>El diseño experimental , incluyendo las amenazas a la validez y los puntos fuertes del experimento </li></ul></ul><ul><ul><li>El contexto en el cual se llevó a cabo el experimento </li></ul></ul><ul><ul><li>El proceso para ejecutar el experimento </li></ul></ul><ul><ul><li>Los métodos utilizados durante el análisis de los datos empíricos </li></ul></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    70. 70. <ul><li>Existe otro problema que Shull et al. (2002) llamaron “conocimiento tácito”, que afecta a la conformidad del proceso y, por tanto, a la posibilidad de comparar los resultados entre réplicas. </li></ul><ul><li>  </li></ul><ul><li>Por lo tanto para que las réplicas sean efectivas se necesitan no sólo los laboratory packages, sino también: </li></ul><ul><ul><li>Un proceso para la replicación que involucre a los experimentadores originales para dar soporte a su instanciación, evolución y uso. </li></ul></ul><ul><ul><li>Contar con una estructura colaborativa efectiva entre los experimentadores originales y los que realizarán la réplica para trasmitir el “conocimiento tácito” que es necesario para lograr la conformidad del proceso. </li></ul></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    71. 71. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><ul><li>Central Research Institute of Electric Power Industry Contact: Mitsuhiro Takahashi </li></ul></ul><ul><ul><li>Japan </li></ul></ul><ul><ul><li>Daimler-Chrysler Research Center; Germany Contact: Frank Houdek </li></ul></ul><ul><ul><li>Lucent Technologies - Bell Laboratories; USA Contact: Audris Mockus </li></ul></ul><ul><ul><li>National Space Development Agency of Japan Contact: Masafumi Katahira </li></ul></ul><ul><ul><li>SINTEF, Norway Contact: Tore Dybå </li></ul></ul><ul><ul><li>Norway </li></ul></ul><ul><ul><li>SUN Microsystems, USA Contact: Larry Votta </li></ul></ul><ul><ul><li>VTT Electronics; Finland Contact: Seija Komi-Sirviö </li></ul></ul><ul><ul><li>Finland </li></ul></ul><ul><ul><li>BTH Contact: Claes Wohlin </li></ul></ul><ul><ul><li>Blekinge Institute of Technology </li></ul></ul><ul><ul><li>Sweden </li></ul></ul><ul><ul><li>Carleton University Contact: Lionel Briand </li></ul></ul><ul><ul><li>Canada </li></ul></ul><ul><ul><li>University of Castilla-La Mancha, Spain Contact: Mario Piattini </li></ul></ul><ul><ul><li>Spain </li></ul></ul><ul><ul><li>University of Maryland at College Park; USA Contact: Victor R. Basili </li></ul></ul><ul><ul><li>USA </li></ul></ul><ul><ul><li>University of Kaiserslautern; Germany Contact: H. Dieter Rombach </li></ul></ul><ul><ul><li>Germany </li></ul></ul><ul><ul><li>University of New South Wales; Australia Contact: Ross Jeffery </li></ul></ul><ul><ul><li>Australia </li></ul></ul>
    72. 72. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    73. 73. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    74. 74. Grupo Alarcos <ul><li>- Métricas para modelos lógicos de BD </li></ul><ul><li>Métricas para modelos conceptuales de BD </li></ul><ul><li>Métricas para modelos UML </li></ul><ul><ul><li>Casos de uso </li></ul></ul><ul><ul><li>Modelos de clase </li></ul></ul><ul><ul><li>Diagramas de transición de estados </li></ul></ul><ul><ul><li>Expresiones OCL </li></ul></ul><ul><li>Métricas para almacenes de datos </li></ul><ul><li>Métricas para modelos de proceso software </li></ul>GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    75. 75. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS 1. DEFINITION Analyse UML class diagrams complexity metrics For the purpose of Evaluating With respect to The capability to be used as early quality indicators From the point of view of OOIS designers In the context of Undergraduate students and professors of the Software Engineering Area in the Department of Computer Science in the UCLM
    76. 76. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>2. PLANNING </li></ul><ul><li>Context selection </li></ul><ul><li>The experiment run off-line (not industrial software development) </li></ul><ul><li>The subjects were 10 professors and 20 students enrolled in the final-year of Computer Science at the Department of Computer Science at the UCLM </li></ul><ul><li>Selection of subjects </li></ul><ul><li>The subjects are chosen for convenience </li></ul>
    77. 77. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Variables selection </li></ul><ul><li>The independent variable is the UML class diagram structural complexity </li></ul><ul><li>The dependent variable is the UML class diagram maintainability </li></ul><ul><li>Instrumentation </li></ul><ul><li>The objects were UML class diagrams </li></ul><ul><li>The independent variable was measured through the metrics </li></ul><ul><li>The dependent variable was measured by the time spent doing the experiment, the “maintenance time” </li></ul>
    78. 78. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Hypotheses formulation </li></ul><ul><li>Null hypothesis, H 0 : There is not a significant correlation between the structural complexity metrics we proposed and the maintenance time </li></ul><ul><li>Alternative hypothesis, H 1 : There is a significant correlation between the structural complexity metrics we proposed and the maintenance time </li></ul><ul><li>Experiment design </li></ul><ul><li>A within-subject design </li></ul>
    79. 79. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>3. OPERATION </li></ul><ul><li>Preparation </li></ul><ul><li>The material consists of nine UML class diagrams of different application domains </li></ul><ul><li>The diagrams have different complexity, considering a broad range of metrics values </li></ul><ul><li>Each subject has to modify the class diagrams according to the new requirements and to write down the time spent in performing those modifications (“maintenance time”) </li></ul>
    80. 80. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Execution </li></ul><ul><li>The subjects were given all the material. </li></ul><ul><li>We explained to them how to carry out the experiment </li></ul><ul><li>We allowed one week to do the experiment </li></ul><ul><li>We collected all the empirical data </li></ul><ul><li>Data Validation </li></ul><ul><li>We checked if the tests were complete and if the modifications were done correctly </li></ul><ul><li>We discarded the test of seven subjects, because they included a required modification that was done incorrectly </li></ul>
    81. 81. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>4. ANALYSIS AND INTERPRETATION </li></ul><ul><li>Our goal is to ascertain if any correlation exists between each of the proposed metrics and the maintenance time </li></ul><ul><li>For analysing the empirical data we used three techniques: </li></ul><ul><li>Statistical techniques </li></ul><ul><li>Fuzzy classification and regression trees (Linares et al., 1996) </li></ul><ul><li>Fuzzy prototypical knowledge discovery (Olivas, 2000) </li></ul>
    82. 82. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>5. VALIDITY EVALUATION </li></ul><ul><li>Threats to conclusion validity </li></ul><ul><li>The only issue that could affect the statistical validity of this study are the size of the sample data (243 values, 9 diagrams and 27 subjects) </li></ul><ul><li>Threats to construct validity </li></ul><ul><li>The dependent variable we used is the maintenance time, so we consider this variable constructively valid </li></ul><ul><li>The construct validity of the measures used for the independent variables is guaranteed by Poels and Dedene´s framework (Poels and Dedene, 1999; 2000a) used to validate them </li></ul>
    83. 83. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Threats to internal validity </li></ul><ul><ul><ul><li>Differences among subjects </li></ul></ul></ul><ul><ul><ul><li>Knowledge of the universe of discourse </li></ul></ul></ul><ul><ul><ul><li>Precision in time values </li></ul></ul></ul><ul><ul><ul><li>Learning effects </li></ul></ul></ul><ul><ul><ul><li>Fatigue effects </li></ul></ul></ul><ul><ul><ul><li>Persistence effects </li></ul></ul></ul><ul><ul><ul><li>Subject motivation </li></ul></ul></ul><ul><ul><ul><li>Other factors </li></ul></ul></ul><ul><li>Threats to external validity </li></ul><ul><ul><ul><li>Materials and tasks used </li></ul></ul></ul><ul><ul><ul><li>Subjects </li></ul></ul></ul>
    84. 84. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>EXPERIMENT CONCLUSIONS </li></ul><ul><li>NC, NA, NM, NAssoc, NAgg, NDep, NGen, NAggH, NGenH, MaxHAgg, MaxDIT are to some extent correlated with maintenance time </li></ul>
    85. 85. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Hipótesis </li></ul><ul><li>Hipótesis nula: Diferentes valores de las métricas no afectan a la entendibilidad del esquema de la base de datos. </li></ul><ul><li>Hipótesis alternativa 1: El valor de DRT afecta a la entendibilidad del esquema de la base de datos. </li></ul><ul><li>Hipótesis alternativa 2: El valor de NFK afecta a la entendibilidad del esquema de la base de datos. </li></ul><ul><li>Hipótesis alternativa 3: La combinación de valores de DRT y NFK afecta a la entendibilidad del esquema de la base de datos. </li></ul>VALIDACIÓN EMPÍRICA: Experimento Relacional
    86. 86. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Sujetos </li></ul><ul><li>Alumnos de la E.S. Informática de la Universidad de Castilla-La Mancha que cursaban una asignatura anual de bases de datos. Fue realizado por 60 alumnos, sólo 59 fueron finalmente aceptados. </li></ul><ul><li>Materiales del experimento </li></ul><ul><li>La documentación entregada a cada sujeto constaba de: </li></ul><ul><ul><li>los esquemas de las bases de datos </li></ul></ul><ul><ul><li>las tablas con su contenido </li></ul></ul><ul><ul><li>la hoja de preguntas y respuestas </li></ul></ul>
    87. 87. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Se realizaron 4 tests diferentes con distintos valores para las métricas </li></ul><ul><li>Material: esquema de la BD, tablas, hoja de preguntas y respuestas </li></ul><ul><li>Ejercicios: inserción, eliminación y modificación de la BD </li></ul><ul><li>. ¿Qué tablas y cuantas columnas por tabla se verán afectadas si borramos de la tabla 5 la columna con cod1=210? </li></ul><ul><li>¿Qué tablas y cuantas columnas por tabla se verán afectadas si modificásemos la columna X de la fila con X=11 en la tabla 3? </li></ul><ul><li>. ¿Cuántas filas, de que tablas y cuantas columnas por tabla habría que modificar si </li></ul><ul><li>quisiéramos añadir una nueva fila (con todos los datos nuevos en la base de datos) a la tabla 6? </li></ul>Tabla 1 Tabla 2 abla 3 Tabla 4 Tabla 5 Tabla 6 Tabla 1 Tabla 2 Tabla 3 Tabla 4 Tabla 5 Tabla 6 Tabla 1 Tabla 2 Tabla 3 Tabla 4 Tabla 5 Tabla 6
    88. 88. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    89. 89. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Variables Independientes </li></ul><ul><li>Las variables independientes son DRT y NFK. </li></ul><ul><li>Cada una de estas variables tiene dos niveles que son dos y cinco para DRT y cinco y ocho para NFK. </li></ul><ul><li>Variables Dependientes </li></ul><ul><li>Se calcula como el número de respuestas correctamente respondidas por cada sujeto en cada test. </li></ul><ul><li>Dimos a los sujetos diez minutos por test evaluando después el número de respuestas correctas obtenidas en ese intervalo de tiempo. </li></ul><ul><li>El estudio se centró en el número de respuestas correctas obtenidas para cada test. </li></ul><ul><li>Únicamente se descartó un test por estar en blanco. </li></ul>
    90. 90. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Variables controladas </li></ul><ul><li>Intentamos minimizar la variabilidad entre sujetos escogiéndolos a todos del mismo curso y con los mismos conocimientos sobre bases de datos </li></ul><ul><li>Los efectos de variables irrelevantes fueron minimizados haciendo los mismos tests a todos los participantes durante el mismo tiempo </li></ul><ul><li>El orden de ejecución de los cuatro tests varió de unos sujetos a otros para contrarrestrar los efectos producidos por el aprendizaje. </li></ul><ul><li>Igualmente se hizo que cada uno de los cuatro test trabajara con el mismo número de tablas aunque se modificara el valor de las métricas. </li></ul>
    91. 91. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Procedimiento </li></ul><ul><li>Los tests se realizaron consecutivamente en el transcurso de una hora de clase. </li></ul><ul><li>Antes de comenzar, fue explicado a los sujetos: tipo de ejercicios que debían realizar, material que se les iba a entregar, tipo de respuestas que debían dar y tiempo que tenían para realizar cada test del experimento.   </li></ul><ul><li>A cada sujeto se le entregó la documentación completa para los cuatro tests </li></ul><ul><li>Al finalizar el tiempo asignado a cada test, se informó a los sujetos que, inmediatamente, dejaban de trabajar en el test que estuvieran y pasaban al siguiente. </li></ul>
    92. 92. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Resultados F 1,232 =2.73
    93. 93. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Sujetos Profesionales de una empresa española con una experiencia media de tres años en el campo de las bases de datos. Once personas desarrollaron el experimento siendo todos ellos válidos. VALIDACIÓN EMPÍRICA: Réplica Relacional
    94. 94. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Variables Dependientes </li></ul><ul><li>Considerando la amplia experiencia en bases de datos relacionales de los sujetos que iban a desarrollar el experimento, se decidió calcularla en función del tiempo necesario para realizar cada uno de los cuatro tests. </li></ul><ul><li>De esta forma, los tests fueron tomados como válidos siempre y cuando estuvieran completados. </li></ul><ul><li>El estudio, por lo tanto, se centró en los tiempos obtenidos para cada test. </li></ul>
    95. 95. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Procedimiento </li></ul><ul><li>Los tests se realizaron consecutivamente en el transcurso de una hora. </li></ul><ul><li>Antes de comenzar, fue explicado a los sujetos, el tipo de ejercicios a realizar, el material que se les iba a entregar, y el tipo de respuestas a dar y cómo debían anotar el tiempo que invertían en resolver cada uno de los cuatro tests.   </li></ul><ul><li>Antes de comenzar a estudiar cada caso, los sujetos debían anotar la hora de comienzo; al finalizar los ejercicios correspondientes a un test, los sujetos tenían que anotar la hora de finalización. </li></ul><ul><li>De esta forma, cuando un sujeto terminaba un test, podía pasar al siguiente sin necesidad de esperar al resto de compañeros. </li></ul>
    96. 96. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Resultados F 1,40 =2.84
    97. 97. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS De ambos experimentos se deduce que la métrica NFK parece ser un indicador sólido de la entendibilidad del esquema mientras que resulta más complicado obtener una conclusión para la métrica DRT
    98. 98. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Validez de constructo </li></ul><ul><li>Decidió medirse la entendibilidad de forma distinta la primera vez que para la réplica (nro de respuestas correctas dadas vs tiempo para determinar el estado final de la base de datos-tiempo de análisis de la base de datos junto al tiempo de ejecución) debido a la experiencia de los sujetos de la réplica. </li></ul><ul><li>Sería conveniente hacer más experimentos, variando las operaciones a realizar en la base de datos. </li></ul>
    99. 99. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Validez interna </li></ul><ul><li>Diferencias entre los esquemas. Seis tablas con más o menos claves ajenas. </li></ul><ul><li>Dominio de los esquemas diferente. Esto pudo influir en los resultados obtenidos. </li></ul><ul><li>Precisión de los valores del tiempo. En la réplica del experimento, era responsabilidad de los sujetos anotar los tiempos de comienzo y fin de cada test. Este procedimiento puede producir que algún sujeto introduzca alguna imprecisión. </li></ul><ul><li>Efectos de aprendizaje. Los tests de cada experimento fueron colocados en distinto orden. </li></ul>
    100. 100. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Validez interna </li></ul><ul><li>Efectos de fatiga. Tiempo medio de una hora por lo que estos efectos son, prácticamente, inexistentes. Además, la diferencia en el orden ayuda a evitar este efecto. </li></ul><ul><li>Efectos de persistencia. El segundo experimento se llevó a cabo con un nuevo conjunto de sujetos. </li></ul><ul><li>Motivación de los sujetos. Alta en el caso de los alumnos ya que se realizaron ejercicios similares en el examen. En el caso de los profesionales, la motivación podía ser menor. </li></ul><ul><li>Otros factores. El plagio y la influencia entre los sujetos fueron controlados. </li></ul>
    101. 101. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Validez externa </li></ul><ul><li>Materiales y tareas utilizados. Intentamos utilizar esquemas y operaciones representativos de casos reales aunque sería interesante realizar más experimentos con bases de datos relacionales de mayor tamaño y complejidad. </li></ul><ul><li>Sujetos. Debido a la dificultad de conseguir profesionales, el experimento se realizó la primera vez con estudiantes. En este caso, las tareas a realizar no requerían de gran experiencia por lo que los resultados obtenidos con los estudiantes pueden ser considerados correctos (Basili et al., 1999). </li></ul>
    102. 102. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Validez externa </li></ul><ul><li>En general, serían necesarios nuevos experimentos con un mayor número de sujetos, tanto con estudiantes como con profesionales y con una mayor diferencia entre los valores que toman las métricas para poder concluir si la integridad referencial afecta o no a la entendibilidad de las bases de datos relacionales y, por tanto, su mantenibilidad. </li></ul><ul><li>Intentamos aumentar la validez externa de las métricas realizando el segundo experimento con los profesionales, con lo que los resultados obtenidos se han podido generalizar considerablemente. </li></ul>
    103. 103. RCOST - Grupo Alarcos GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS The impact of educational background on design knowledge sharing during pair programming 3rd Conference Professional Knowledge Management Experiences and Visions
    104. 104. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS The current work is part of a family of experiments, aiming at evaluating the relationship between the paradigm practice of working in pairs applied to any phase of software process and knowledge building about the ‘big picture’ of the system Experimento: Hipótesis Ho: the difference in education between the pair’s components does not affect the building of system knowledge realized by the pair’s components. H1: the difference in education between the pair’s components affects the building of system knowledge realized by the pair’s components. Sujetos 4 couples with one MUTS student and one MUTEGS student; 5 couples with two MUTS students; 5 couples with two MUTEGS students; the other 16 subjects, MUTS and MUTEGS, worked as solo designers.
    105. 105. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    106. 106. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS First Replica Students enrolled at the Department of Computer Science at the University of Castilla-La Mancha in Spain Second Replica The subjects were students of the course Software Engineering, at the fifth and final year of the laurea degree in Computer Engineering at University of Naples, Federico II
    107. 107. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS
    108. 108. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Outcomes of the family of the experiment </li></ul><ul><li>The experiment permitted to drawn the following conclusions that can be taking into account especially for improving the team management: </li></ul><ul><li>When pairing developers owing the same kind of degree the effect on the knowledge building through the practice is significant. </li></ul><ul><li>When pairing developers owing different kinds of degree, the knowledge building seems to be strongly hindered: the drawback is that it does not help humanistic people in improving their knowledge and creates hurdles for scientific people to exploit their attitudes to build a deep knowledge through the practice. </li></ul><ul><li>The benefit of pair programming on knowledge transfer is completely lost </li></ul>
    109. 110. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS ¿QUÉ CUESTIONES HAY QUE TENER EN CUENTA A LA HORA DE EVALUAR UN EXPERIMENTO?
    110. 111. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS CASO DE ESTUDIO (Yin, 2003) <ul><li>Una investigación empírica que aborda un fenómeno contemporáneo dentro de su contexto real, cuando: </li></ul><ul><ul><li>las fronteras entre el fenómeno y el contexto no son claramente evidentes </li></ul></ul><ul><ul><li>trata con situaciones distintivas técnicamente en las cuales habrá muchas más variables de interés que datos </li></ul></ul><ul><ul><li>se basa en múltiples fuentes de evidencia, con datos necesarios para converger de una manera triangular </li></ul></ul><ul><ul><li>se beneficia del desarrollo previo de proposiciones teóricas para guiar la recogida y análisis de datos. </li></ul></ul>
    111. 112. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Aplicaciones de los casos de estudio </li></ul><ul><li>explicar los supuestos enlaces causales en intervenciones reales que son muy complejos para las estrategias de encuesta o experimento </li></ul><ul><li>describir una intervención y el contexto real en la que ha ocurrido </li></ul><ul><li>ilustrar ciertos tópicos en una evaluación, en modo descriptivo </li></ul><ul><li>explorar las situaciones en las que la intervención que está siendo evaluada no tiene un conjunto claro de resultados únicos </li></ul><ul><li>estudiar un estudio de evaluación (metaevaluación) </li></ul>
    112. 113. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>A) Diseño de caso único: es análogo a un experimento único y se justifica cuando: </li></ul><ul><ul><li>representa un caso crítico para probar una teoría </li></ul></ul><ul><ul><li>representa un caso extremo o único </li></ul></ul><ul><ul><li>representa un caso representativo o típico </li></ul></ul><ul><ul><li>es un caso revelador (una oportunidad de observar un fenómeno previamente inaccesible) </li></ul></ul><ul><ul><li>es un caso longitudinal </li></ul></ul><ul><li>B) Múltiples casos de estudio : se considera la evidencia más sólida y el estudio más robusto. La lógica de replicación es análoga a la utilizada en múltiples experimentos. </li></ul>
    113. 114. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>1. Preparación en la recogida de datos </li></ul><ul><li>La primera fase de preparación consta de diferentes tareas: </li></ul><ul><ul><li>Formación y preparación para un caso de estudio específico </li></ul></ul><ul><ul><li>Protocolo del caso de estudio </li></ul></ul><ul><ul><li>Llevar a cabo un caso de estudio piloto </li></ul></ul><ul><li>Para mejorar la fiabilidad del caso de estudio debe establecerse un protocolo, con: </li></ul><ul><ul><li>una visión general del proyecto de caso de estudio </li></ul></ul><ul><ul><li>procedimientos de campo </li></ul></ul><ul><ul><li>cuestiones de caso de estudio </li></ul></ul><ul><ul><li>una guía para el informe del caso de estudio </li></ul></ul>
    114. 115. Holístico Embebido Caso simple Caso múltiple CONTEXTO caso Unidad de análisis 1 Unidad de análisis 2 U. análisis 1 U. análisis 2 U. análisis 1 U. análisis 2 U. análisis 1 U. análisis 2 U. análisis 1 U. análisis 2 CONTEXTO caso CONTEXTO caso CONTEXTO caso CONTEXTO caso CONTEXTO caso CONTEXTO caso CONTEXTO caso CONTEXTO caso CONTEXTO caso
    115. 116. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Unidad de recogida de datos vs. la unidad de análisis D I S E Ñ O Fuente de recogida de datos Conclusiones del estudio De un individuo De una organización Acerca de un individuo Comportamiento individual Actitudes individuales Percepciones individuales Registros de archivo Otros comportamientos, actitudes y percepciones reportadas Si el caso de estudio es un individuo Acerca de una organización Cómo trabaja la organización Por qué trabaja la organización Políticas de personal Productos de la organización Si el caso de estudio es una organización
    116. 117. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS 2. Recogida de evidencias Fuente de evidencia Ventajas Inconvenientes Documentación Estable: se puede revisar de manera repetida No intrusiva: no creada como resultado del caso de estudio Exacta: contiene nombres y referencias exactas y detalles de un evento Amplia cobertura: larga extensión de tiempo, muchos eventos, y muchos entornos Recuperabilidad: puede ser baja Selectividad sesgada: si la recogida es incompleta Sesgo al informar: refleja el sesgo (desconocido) del autor Acceso: puede ser bloqueado deliberadamente Registros de archivos (Los mismos de la documentación) Precisa y cuantitativa (Los mismos de la documentación) Accesibilidad debida a razones personales Entrevistas Centradas: directamente en el tema del caso de estudio Proporciona inferencia causal inferida Sesgo debido a cuestiones pobremente construidas Sesgo en las respuestas Inexactitudes debidas a pobre recuerdo Reflexividad: el entrevistado da al entrevistador lo que quiere oir
    117. 118. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Fuente de evidencia Ventajas Inconvenientes Observación directa Realidad: abarca eventos en tiempo real Contextual: abarca el contexto del evento Consume tiempo Selectividad: excepto una amplia cobertura Reflexividad: un evento puede desarrollarse de forma diferente por ser observado Coste: horas necesarias para los observadores humanos Observación participante (Los mismos de la observación directa) Da ideas de comportamientos y motivos personales (Los mismos de la observación directa) Sesgo debido a la manipulación de los eventos por parte del investigador Artefactos físicos Iluminador en características culturales Iluminador en operaciones técnicas Selectividad disponibilidad
    118. 119. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><ul><li>4. Elaboración del informe del caso de estudio </li></ul></ul><ul><ul><ul><li>audiencia: colegas académicos, practicantes, grupos especiales (tribunales de tesis), patrocinadores de subvenciones </li></ul></ul></ul><ul><ul><ul><li>si se trata del informe de un caso de estudio que forma parte de un estudio más amplio multimétodo </li></ul></ul></ul><ul><ul><ul><li>la estructuras elegida para el caso de estudio </li></ul></ul></ul>TIPO DE ESTRUCTURA PROPÓSITO DEL CASO DE ESTUDIO EXPLICATIVO DESCRIPTIVO EXPLORATORIO ANALÍTICA-LINEAL X X X COMPARATIVA X X X CRONOLÓGICA X X X CONTRUCCIÓN DE TEORÍA X X “ SUSPENSO” X NO SECUENCIAL X
    119. 120. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><ul><li>5. Validación del caso de estudio </li></ul></ul><ul><ul><li>Para que un caso de estudio sea ejemplar, debe poseer ciertas características como: </li></ul></ul><ul><ul><ul><ul><li>Ser significativo </li></ul></ul></ul></ul><ul><ul><ul><ul><li>Ser completo </li></ul></ul></ul></ul><ul><ul><ul><ul><li>Considerar perspectivas alternativas </li></ul></ul></ul></ul><ul><ul><ul><ul><li>Mostrar suficiente evidencia </li></ul></ul></ul></ul><ul><ul><ul><ul><li>Debe componerse en una manera atractiva </li></ul></ul></ul></ul>
    120. 121. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS Validez de los casos de estudio Pruebas Táctica de caso de estudio Fase de la investigación en que ocurre la táctica Validez de constructo usar varias fuentes de evidencia establecer una cadena de evidencias hacer que informadores clave revisen el borrador del informe de caso de estudio Recogida de datos Recogida de datos Composición Validez interna Hacer pattern-matching Hacer construcción de explicaciones Abordar las explicaciones rivales Utilizar modelos lógicos Análisis de datos “ “ “ “ Validez externa Utilizar teoría en casos de estudio únicos Utilizar lógica de replicación en casos múltiples Diseño de la investigación “ Fiabilidad Utilizar protocolo de caso de estudio Desarrollar una base de datos de casos de estudio Recogida de datos “
    121. 122. desarrollar teoría seleccionar casos diseñar protocolo de recogida de datos realizar 1º caso de estudio realizar 2º caso de estudio realizar restantes caso de estudio escribir Informe de caso individual escribir Informe de caso individual escribir Informe de caso individual obtener conclusiones intercasos modificar teoría escribir conclusiones intercasos desarrollar implicaciones políticas
    122. 123. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS ¿QUÉ COMPONENTES TENDRÍA UN MARCO PARA LA RECOGIDA Y ANÁLISIS DE INFORMES DE CASOS DE USO INDUSTRIALES?
    123. 124. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS ENCUESTAS (Yin, 2003) 1. Fijar objetivos específicos y medibles 2. Planificar la encuesta 3. Asegurar que están disponibles los recursos adecuados 4. Diseñar la encuesta 5. Preparar el instrumento de recogida de datos 6. Validar el instrumento 7. Seleccionar los participantes 8. Administrar y puntuar el instrumento 9. Analizar los datos 10. Informar sobre los resultados
    124. 125. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS TIPOS DE ENCUESTAS <ul><li>Recoge información con la intención de describir </li></ul><ul><li>Puede ser supervisada o no </li></ul><ul><li>Compara conocimientos, actitudes, comportamientos </li></ul><ul><li>Fijar sentencias claras sobre el resultado esperado </li></ul><ul><li>Proporcionar objetivos claros y medibles </li></ul><ul><li>Analizar y producir resultados significativos </li></ul>
    125. 126. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS DISEÑO DE ENCUESTAS <ul><li>Similar a un experimento </li></ul><ul><li>Describir un fenómeno de interés </li></ul><ul><ul><li>Proporcionar más detalles acerca de un proceso </li></ul></ul><ul><li>- Evaluar el impacto de una intervención </li></ul><ul><ul><li>Examinar la efectividad de la técnica </li></ul></ul><ul><ul><li>- Efectivo: resistente a sesgos, apropiada, en coste </li></ul></ul>
    126. 127. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS <ul><li>Cross-sectional: pedir información una vez </li></ul><ul><li>Cohorte: observar el cambio en el tiempo </li></ul><ul><li>Caso de control: examen retrospectivo </li></ul><ul><li>En Ing. del Sw. Se usa una combinación </li></ul><ul><li>de 1) y 3) </li></ul>DISEÑOS DESCRIPTIVOS
    127. 128. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS DISEÑO EXPERIMENTALES <ul><li>Estudios de control concurrentes </li></ul><ul><ul><li>asignación al azar a los grupos </li></ul></ul><ul><ul><li>asignación no al azar </li></ul></ul><ul><li>Estudios de autocontrol </li></ul><ul><ul><li>pre y post pruebas en una clase </li></ul></ul><ul><li>Estudios de control históricos </li></ul><ul><li>Estudios de combinación de técnicas </li></ul>
    128. 129. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS TAMAÑO DE LA MUESTRA <ul><li>NO ES FACTIBLE QUE RESPONDA TODO EL MUNDO </li></ul><ul><ul><li>Se quiere un tamaño de muestra representativo </li></ul></ul><ul><ul><li>Prevenir inexactitudes en la muestra </li></ul></ul><ul><ul><li>Restricciones por coste </li></ul></ul><ul><li>HAY QUE ASEGURAR QUE LA GENTE: </li></ul><ul><ul><li>Puede contestar las preguntas </li></ul></ul><ul><ul><li>Quieren contestar las preguntas </li></ul></ul><ul><ul><li>Están motivados para contestar </li></ul></ul>
    129. 130. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS CONSTRUCCIÓN DEL INSTRUMENTO <ul><li>Búsqueda de la literatura para encuestas similares </li></ul><ul><li>Selección de preguntas es crucial: </li></ul><ul><ul><li>Comprender a los que responden </li></ul></ul><ul><ul><li>Preguntar un nº adecuado de cuestiones </li></ul></ul><ul><ul><li>Estandarizar los formatos de respuesta </li></ul></ul><ul><li>Construcción de preguntas: </li></ul><ul><ul><li>cuestiones adecuadas </li></ul></ul><ul><ul><li>cuestiones concretas </li></ul></ul><ul><ul><li>mejorar la construcción de preguntas </li></ul></ul>
    130. 131. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS TIPOS DE PREGUNTAS <ul><li>Abiertas o cerradas </li></ul><ul><li>Escalas balanceadas </li></ul><ul><li>Formato del cuestionario </li></ul><ul><li>Instrucciones: </li></ul><ul><ul><li>Explicar el propósito del estudio </li></ul></ul><ul><ul><li>Describir el patrocinador </li></ul></ul><ul><ul><li>Incluir datos de contacto </li></ul></ul><ul><ul><li>Explicar cómo y porqué han sido seleccionados </li></ul></ul><ul><ul><li>Explicar cómo devolver el cuestionario </li></ul></ul><ul><ul><li>Proporcionar estimación realista de tiempo </li></ul></ul>
    131. 132. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS EVALUACIÓN DEL CUESTIONARIO <ul><li>MOTIVACIÓN </li></ul><ul><li>SESGO DEL INVESTIGADOR </li></ul><ul><ul><li>La manera de preguntar </li></ul></ul><ul><ul><li>El nº de cuestiones </li></ul></ul><ul><ul><li>El rango y tipo de categorías de respuestas </li></ul></ul><ul><ul><li>Las instrucciones para responder </li></ul></ul>
    132. 133. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS PRETESTING DEL INSTRUMENTO <ul><li>Verificar que las preguntas se entienden </li></ul><ul><li>Evaluar la ratio de respuesta y la efectividad de los procedimientos de seguimiento </li></ul><ul><li>Asegurar la fiabilidad y la validez del instrumento </li></ul><ul><li>Asegurar que las técnicas de análisis de datos sirven para las respuestas esperadas </li></ul>
    133. 134. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS TIPOS DE FIABILIDAD <ul><li>Confianza si los resultados se repiten </li></ul><ul><li>Forma alterna: múltiples formas de expresión </li></ul><ul><li>Consistencia interna: cuestiones repetidas </li></ul><ul><li>Intra-observador: mismas respuestas cada vez </li></ul><ul><li>Inter-observador/inter-rater: respuestas similares para las mismas condiciones </li></ul>
    134. 135. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS TIPOS DE VALIDEZ <ul><li>Validez de forma: extremadamente subjetiva </li></ul><ul><li>Validez de contenido: cómo de apropiado </li></ul><ul><li>Validez de criterio: cómo se compara con otros </li></ul><ul><li>Validez de constructo: cómo se comparte en la práctica </li></ul>
    135. 136. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS MUESTREO <ul><li>Grandes poblaciones son prohibitivas en coste </li></ul><ul><li>Usar un subconjunto reduce el coste </li></ul><ul><li>Cautela al seleccionar a los representativos </li></ul><ul><ul><li>> o se invalida la fiabilidad </li></ul></ul><ul><li>Más fácil de seguir a pocas personas </li></ul><ul><ul><li>-> el seguimiento puede ser crítico </li></ul></ul>
    136. 137. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS MÉTODOS DE MUESTREO PROBABILÍSTICOS <ul><li>Aleatorio simple: igual probabilidad </li></ul><ul><li>Aleatorio estratificado: separados en grupos </li></ul><ul><li>Sistemático: seleccíonar cada X miembros </li></ul><ul><li>Basado en clusters: pertenecer a un grupo específico </li></ul>
    137. 138. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS MÉTODOS DE MUESTREO NO PROBABILÍSTICOS <ul><li>Conveniencia: disponibles y dispuestos </li></ul><ul><li>Bola de nieve: recomendaciones de otros </li></ul><ul><li>Cuota: estratificado hasta que se alcanza proporciones </li></ul><ul><li>Focus groups: representante de un grupo </li></ul>
    138. 139. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS VALIDACIÓN DE DATOS <ul><li>Examen de datos post-mortem </li></ul><ul><li>Verificar consistencia y compleción </li></ul><ul><li>Se puede necesitar particionar las respuestas: </li></ul><ul><ul><li>agrupar demográficamente </li></ul></ul><ul><ul><li>ayuda a evitar errores de diseño </li></ul></ul>
    139. 140. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS ANÁLISIS DE DATOS
    140. 141. GESTIÓN DEL CONOCIMIENTO FAMILIAS DE ESTUDIOS ¿QUÉ FALLOS Y QUÉ ACIERTOS SE PUEDEN IDENTIFICAR EN LAS SIGUIENTES ENCUESTAS?
    141. 142. GESTIÓN DEL CONOCIMIENTO INTRODUCCIÓN <ul><li>INTRODUCCIÓN </li></ul><ul><li>INGENIERÍA DEL SOFTWARE </li></ul><ul><li>FÁBRICA DE EXPERIENCIAS </li></ul><ul><li>FAMILIAS DE ESTUDIOS </li></ul><ul><li>CONCLUSIONES </li></ul>
    142. 143. GESTIÓN DEL CONOCIMIENTO CONCLUSIONES Necesidades de una organización de software relacionadas con el conocimiento Aurum et al. (2003) - disminuir el tiempo de desarrollo y el coste y aumentar la calidad - tomar mejores decisiones - conocimiento sobre nuevas tecnologías - conocimiento sobre el dominio del problema - conocimiento acerca de políticas, prácticas y proyectos pasados locales - ubicar fuentes de conocimiento - necesidad de compartir el conocimiento de forma distribuida
    143. 144. GESTIÓN DEL CONOCIMIENTO CONCLUSIONES Factores que posibilitan el proceso de gestión del conocimiento en las organizaciones de software - tecnología que enlaza los desarrolladores y crea un repositorio de memoria organizacional accesible a toda la organización - liderazgo que impulsa la gestión de conocimiento en el desarrollo de productos y servicios software así como en los procesos de trabajo - cultura organizacional que soporte la compartición de conocimiento, experiencias, tecnologías e innovación
    144. 145. GESTIÓN DEL CONOCIMIENTO CONCLUSIONES Un soporte de conocimiento efectivo en el desarrollo de software requiere el soporte tanto de la gestión como de los niveles técnicos - soporte del proceso software, modelos de mejora de procesos, actividades, resultados de los procesos, etc. - soporte del producto software, diseño, ingeniería, modelado, - soporte al personal , adaptar un workflow, etc.
    145. 146. GESTIÓN DEL CONOCIMIENTO CONCLUSIONES Modelo de gestión del conocimiento adecuado Ebert et al. (2003) Estrategia de negocio Modelo de gestión Organización Conceptos Tipo de conoc. Reducción de costes Productividad Compartir, evitando redundancia Base de información Explícito Especialización Calidad Mejores prácticas Procesos comunes Explícito Innovación Creatividad Integración y combinación de conocimiento Conocimiento dinámico Tácito
    146. 147. GESTIÓN DEL CONOCIMIENTO CONCLUSIONES <ul><li>Conocimiento del dominio del problema </li></ul><ul><li>Conocimiento del dominio de la solución </li></ul><ul><li>Conocimiento del producto </li></ul><ul><li>Conocimiento del proceso </li></ul><ul><li>Conocimiento del proyecto </li></ul>
    147. 148. GESTIÓN DEL CONOCIMIENTO CONCLUSIONES <ul><li>Dificultades mayores </li></ul><ul><li>hacer tácito el conocimiento explícito </li></ul><ul><li>mantener actualizado el conocimiento explícito </li></ul><ul><li>llevar a cabo familias de estudios que aporten evidencias fiables </li></ul>

    ×