Your SlideShare is downloading. ×
Investigacion de Operaciones II
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×

Saving this for later?

Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime - even offline.

Text the download link to your phone

Standard text messaging rates apply

Investigacion de Operaciones II

16,774
views

Published on

Published in: Travel, Business

1 Comment
4 Likes
Statistics
Notes
  • muchas gracias por el aporte, pero no se puede descargar
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
No Downloads
Views
Total Views
16,774
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
410
Comments
1
Likes
4
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. ESCUELA SUPERIOR POLITECNICA DEL LITORAL INGENIERIA EN LOGISTICA Y TRANSPORTE CURSO: INVESTIGACION DE OPERACIONES II I TERMINO 2008-2009 1
  • 2. 1. Introducción: La logística y la estadística ¿Qué es la Investigación de Operaciones (IO)? La IO consiste en el uso de métodos analíticos avanzados que ayudan en la toma de decisiones. Sentido Modelo común matemátic o Intuición Vs. Metodología formal Estos métodos analíticos incluyen:  Optimización: encontrar la mejor decisión posible de entre un conjunto de alternativas. INVESTIGACION DE OPERACIONES I (LP, MIP)  Simulación: imitación de la realidad (comportamientos, materiales, ideas, …) que ahorra tiempo y costos. INVESTIGACION DE OPERACIONES II  Probabilidad y estadística: ayuda a resumir / analizar información, medir riesgos, realizar predicciones, etc. 2
  • 3. 1. Introducción: La logística y la estadística DEFINICIONES, USOS:  La Estadística, es la rama de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como la toma de decisiones.  Nos permite obtener información referida a grandes grupos de individuos conociendo los datos de sólo unos pocos.  Permite describir con exactitud los valores de datos económicos, políticos, sociales, psicológicos, biológicos y físicos, y sirve como herramienta para relacionar y analizar dichos datos.  La Estadística responde a las necesidades del desarrollo científico y tecnológico de la sociedad 3
  • 4. 1. Introducción: La logística y la estadística APLICACIONES:  Las técnicas de Investigación de Mercados permiten saber si un producto cualquiera será bien acogido en el mercado antes de su salida a este, o bien medir la audiencia en Televisión y Radio.  El Control de Calidad permite medir las características de la calidad de un producto, compararlas con ciertos requisitos y tomar decisiones correctivas si hay diferencias entre el funcionamiento real y el esperado.  Análisis de confiabilidad, cálculo actuarial, bioestadística, Series de tiempo, etc.  En técnicas de decisión, permite la construcción de los denominados Árboles de decisión, una técnica muy usada para tomar decisiones en ambientes de incertidumbre 4
  • 5. 1. Introducción: La logística y la estadística ESTADISTICA = MEDIDA DE LO DESCONOCIDO  La estadística está asociada a la medición de la Incertidumbre  En logística la incertidumbre está presente de muchas formas: en la demanda de los artículos que están en el inventario, en los tiempos de entrega de los pedidos, en los costos de adquisición de la materia prima, en el costo del dinero, en la eficiencia de los empleados.  Generalmente ante la incertidumbre sobre el comportamiento futuro de una variable se deben aumentar las medidas de protección de aquello que pueda resultar afectado por los cambios imprevisibles de esta variable. Por ejemplo en la gestión de inventarios, el responsable logístico deberá aumentar las existencias a medida que la demanda se hace mas imprevisible. En otras palabras, la incertidumbre se paga, ¡es un coste!, y por tanto debe ser bien investigada y medida. 5
  • 6. 1. Introducción: La logística y la estadística  Específicamente la Gestión de la Cadena de Suministro (SCM – Supply Chain Management) tiene como objetivo final la entrega de un producto a un cliente. Esto quiere decir, que la cadena de suministro incluye las actividades asociadas desde la obtención de materiales para la transformación del producto, hasta su colocación en el mercado.  El flujo en la cadena no solo es de productos, también es de información. Y es en el tratamiento de la información en donde es importante la estadística (y los modelos estadísticos de toma de decisión) 6
  • 7. 1. Introducción: La logística y la estadística Las técnicas estadísticas básicas suelen clasificarse de acuerdo a su naturaleza en: •Estadística descriptiva, y •Estadística inferencial. POBLACION Todos los elementos objetos de estudio Estadística descriptiva PARAMETROS MUESTRA Subconjunto de la Estadística descriptiva población Estadística inferencial ESTIMADORES 7
  • 8. 2. Descripción de datos: Escalas de medida  El primer paso para poder hacer cualquier análisis estadístico es la obtención de la data. El proceso estadístico por medio del cual se toma datos de una población se denomina muestreo, el conjunto de datos obtenido se denomina muestra.  La data está conformada por las mediciones de características de los elementos de la población, dichas características se denominan variables.  Las variables difieren en "qué tan bien" se pueden medir, ¿cuánta información medible puede proporcionar su escala de medida?  Específicamente las variables son clasificadas como: (a) nominales, (b) ordinales, (c) de escala 8
  • 9. 2. Descripción de datos: Escalas de medida (a) Nominal: se utilizan nombres para establecer categorías  Ejemplos: género, la raza, el color, la ciudad, tipo de artículo de inventario, etc. 9
  • 10. 2. Descripción de datos: Escalas de medida (b) Ordinales: nos permiten ordenar los artículos que medimos en términos del que tiene menos y el que tiene más de la calidad representada por la variable  Ejemplos: nivel socio-económico, rango, etc. 10
  • 11. 2. Descripción de datos: Escalas de medida (c) De escala: no sólo nos permiten ordenar los artículos que son medidos, sino también cuantificar y comparar los tamaños de diferencias entre ellos. Ofrecen un punto de cero absoluto identificable, así permiten las declaraciones como las de que “x es dos veces más de y”.  Ejemplos: temperatura, peso, estatura, ventas, etc. 11
  • 12. 2. Descripción de datos: Escalas de medida  Complejidad: la complejidad aumenta con cada una de las escalas de medición, desde la simpleza de la escala nominal hasta el refinamiento de la escala de razón. El tipo de técnicas estadísticas que se puede emplear en cada escala de medida es diferente (por ejemplo en pruebas de hipótesis) Escala Pruebas Ordinal Paramétricas Nominal Pruebas No paramétricas 12
  • 13. 2. Descripción de datos: base de datos Creación de la base de datos electrónica  El software estadístico especializado (SPSS, SAS, S-PLUS, R, MINITAB, STATISTICA, etc.) requiere un ordenamiento del archivo de datos a analizar. Este ordenamiento está referido a filas y a columnas  Cuando hablamos de casos nos referimos a c/u de los registros obtenidos al investigar, muestrear, entrevistar, etc.  Con variables indicamos a las características que pueden tener estos datos 13
  • 14. 2. Descripción de datos: base de datos CASOS: si se usa una hoja electrónica generalmente se los ubica en filas 14
  • 15. 2. Descripción de datos: base de datos VARIABLES: en columnas 15
  • 16. 2. Descripción de datos: base de datos PROCESAMIENTO EN SPSS:  El editor de datos tiene dos vistas diferentes: vista de datos y vista de variables. La primera tiene una estructura similar a la de una hoja de cálculo (Excel), y se usa para introducir los datos que se quieren analizar. El SPSS maneja los datos en términos de variables, cada una de las cuales corresponde a una columna de la pantalla. Esto quiere decir que si queremos introducir unos datos, cada variable debe ir en una columna.  Al introducir los datos en el visor de datos, podemos pensar en que estamos rellenando una “encuesta”: cada línea horizontal de la cuadrícula sería un “encuestado" (caso), al que le corresponde un valor de cada una de las variables que intervienen en el problema (columnas). 16
  • 17. 2. Descripción de datos: base de datos  Entreviste a la totalidad de sus compañeros de clase y para cada una de las variables que se presentan a continuación construya la boleta de encuesta, defina las escalas de medición de cada una de ellas, y la base de datos electrónica. Variables a medir.  Género del entrevistado  Edad  Ingresos mensuales Promedio  Estado civil  Posee vehículo  Periódico preferido para leer noticias 17
  • 18. 2. Descripción de datos: medidas Medidas numéricas:  De tendencia central: Permiten describir la región “media” hacia adonde se agrupan los datos Probablemente la estadística descriptiva mas usada es la media. La media es una medida muy informativa de la tendencia “central” de la variable si se reporta con sus intervalos de confianza. Otras son: la moda, la mediana.  De dispersión: Son una medida de que tan dispersos están los datos (que tan lejanos están entre ellos). Las mas usadas son: desviación típica, varianza, coeficiente de variación, rango. 18
  • 19. 2. Descripción de datos: medidas  Media: ( o X ) mas usada  Desviación típica: ( o S ) depende de la magnitud de la variable, no puede tener la misma medida de incertidumbre la venta de un producto cuya media sea de 10 unidades mensuales que otro cuya venta media sea de 10.000  Coeficiente de variación: / , Que tan predecible es una variable en el futuro. Ver el ejemplo siguiente (demanda en la cadena de abastecimiento). 19
  • 20. 2. Descripción de datos: medidas ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento  Se tienen los siguientes datos referidos a la venta mensual que hace un minorista de dos productos A, B en un año: p erío d o 1 2 3 4 5 6 7 8 9 10 11 12 m ed ia d es. T íp C V v en ta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10% v en ta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50%  Podría suponerse que la incertidumbre es menor para el producto A (si se observa la desviación típica). Sin embargo en el producto A la variabilidad representa el 85.1% sobre la media, mientras que en B es el 50.9%, por lo que en realidad la venta del producto A tiene mayor incertidumbre que la de B  Si agregamos la venta de los dos productos: p erío d o 1 2 3 4 5 6 7 8 9 10 11 12 m ed ia d es. T íp C V v en ta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10% v en ta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50% v en ta to tal 1100 900 355 675 272 811 734 108 546 780 310 506 49.60% 20
  • 21. 2. Descripción de datos: medidas ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento Algunas concusiones que se pueden observar de este caso simple:  El coeficiente de variación es mas sensible para detectar la variabilidad de una serie de datos  Cuánto menor es la venta de un producto, suele ser mayor su incertidumbre ( y por tanto proporcionalmente requerirán más inventario)  Cuando se agregan datos, la incertidumbre del total agregado disminuye (por tanto es mas fácil pronosticar sobre la demanda de grupos de productos) 21
  • 22. 2. Descripción de datos: gráficas DESCRIPCION GRAFICA  ¡ Una imagen vale más que mil palabras !  Un aspecto importante de la "descripción" de una variable es la forma de su distribución, que le dice la frecuencia de valores de rangos diferentes de la variable. Típicamente, un investigador está interesado en qué la distribución pueda aproximarse bien por la distribución normal  HISTOGRAMAS 2D, 3D: representación gráfica de la distribución de frecuencia de la(s) variable(s) seleccionada(s)  Otros gráficos 22
  • 23. 2. Descripción de datos: gráficas H isto g ra m (In d ice s 8 v*2 0 c) N A S D A Q = 2 0 *0 ,1 3 9 1 *n o rm a l(x; -0 ,0 3 7 8 ; 0 ,2 7 5 8 ) 6 5 4 No of obs 3 2 1 0 -0 ,4 5 7 1 4 9 7 6 7 9 -0 ,1 7 8 9 5 7 5 4 8 8 0 ,0 9 9 2 3 4 6 7 0 4 0 ,3 7 7 4 2 6 8 8 9 5 -0 ,3 1 8 0 5 3 6 5 8 3 -0 ,0 3 9 8 6 1 4 3 9 2 0 ,2 3 8 3 3 0 7 7 9 9 0 ,5 1 6 5 2 2 9 9 9 1 NA S DA Q B iv ariate H is togram (S ports .s ta 14v *100c ) 23
  • 24. 2. Descripción de datos: gráficas ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento (... continuación) • Se pide analizar la siguiente tabla y entender el concepto de “efecto látigo), para ello leer el documento EFECTO LATIGO. DOC • Los datos son los siguientes: D E M AN D A E N U N ID AD E S P O R S E M AN A Sem . 1 Sem . 2 Sem . 3 Sem . 4 Sem . 5 Sem . 6 Sem . 7 Sem . 8 Sem . 9 Sem . 10 Sem . 11 D e m a n d a m e rc a d o 0 22 15 10 13 17 19 10 15 12 8 S to c k e n m in o ris ta 0 P e d id o s d e l m in o ris ta S to c k e n M a yo ris ta 0 P e d id o s d e l m a yo ris ta P u n to d e re p o s ic ió n p a ra e l m in o ris ta = 2 0 u n id a d e s . C a n tid a d d e p e d id o = 5 0 u n id a d e s . P u n to d e re p o s ic ió n p a ra e l m a y o ris ta = 3 0 u n id a d e s . C a n tid a d d e p e d id o = 1 0 0 u n id a d e s . T ie m p o s d e s u m in is tro p a ra e l m a y o ris ta y e l m in o ris ta (L e a d tim e ) = 1 s e m a n a 24
  • 25. 3. Control de Inventarios  VER DESARROLLO EN CLASE. 25
  • 26. 4. Bayes, Odds y Razón de verosimilitud  Experimento aleatorio: Un experimento en el cual el resultado es incierto, pero se conoce el conjunto de posibles resultados del mismo (denominado espacio muestral, )  Evento: cualquier subconjunto del espacio muestral. Y se denomina evento elemental a cualquier evento formado por un solo elemento.  Si el experimento aleatorio se realiza n veces, en las mismas condiciones, la frecuencia con la que un evento A ocurre es el número de veces que el experimento aleatorio resulta en A.  La frecuencia relativa de A es la frecuencia con la que ocurre A sobre el número total de repeticiones. 26
  • 27. 4. Bayes, Odds y Razón de verosimilitud Probabilidad Condicional e independencia: PROBABILIDAD CONDICIONAL: P A B P A/B ; Def: Dados dos eventos A, B se P B define la probabilidad condicional P B 0 de A dado B como: INDEPENDENCIA: Def: Dados dos eventos A, B se P A/B P A , y, dice que los dos eventos son P B/A P B independientes si 27
  • 28. 4. Bayes, Odds y Razón de verosimilitud ¿La evaluación de la prob. de A cambia si tenemos conocimiento de la ocurrencia de B? Def: Los eventos A, B se dicen independientes si: P(A/B)=P(A) P(B/A)=P(B) Obs: (1) A y B son independientes ssi: P(A B)=P(A)P(B) (2) A1, A2, …, An son independientes si para cualquier subconjunto de eventos A(1), A(2), …, A(k): k k P A i P Ai i 1 i 1 28
  • 29. 4. Bayes, Odds y Razón de verosimilitud Regla de Bayes: PARTICIONES: Def: Dado un e.m. se dice que los eventos B1, B2, …, Bk forman una partición si: 1. B1 B2 … Bk= 2. Bi Bj = ; i j PROBABILIDAD TOTAL: P A P A / B1 P B1 P A / B2 P B2 ... P A / Bk P Bk TEOREMA DE BAYES: P A/ Bj P Bj P Bj / A k P A / Bi P Bi i 1 29
  • 30. 4. Bayes, Odds y Razón de verosimilitud TEOREMA DE BAYES: Prob. posterior Verosimilitudes P A Bi P Bi P Bi A n P A Bj P Bj j 1 Predictor o evidencia Prob. A priori P(A)=verosimilitud marginal 30
  • 31. 4. Bayes, Odds y Razón de verosimilitud TEOREMA DE BAYES: Proporciona una regla matemática que explica cómo uno debe cambiar sus creencias teniendo en cuenta nueva evidencia. Es decir permite que los investigadores combinen nuevos datos con su conocimiento o experiencia existente. Un ejemplo didáctico es imaginarse que un recién nacido observa su primera puesta del sol, y que el se pregunta si el sol saldrá otra vez o no. Lo natural será que asigne probabilidades a priori iguales a ambos resultados posibles, lo cual representa colocando un bloque blanco y uno negro en un bolso. El día siguiente, cuando ve que sale el sol, el niño coloca otro bloque blanco en el bolso. La probabilidad que un bloque extraído aleatoriamente del bolso sea blanco (es decir, el grado de creencia del niño en que el sol saldrá en todos los días futuros) ha cambiado de 1/2 a 2/3. Después de la salida del sol el día siguiente, el niño agrega otro bloque blanco, y la probabilidad (y por tanto el grado de creencia) pasa de 2/3 a 3/4. Y así sucesivamente. Gradualmente, la creencia inicial de que es tan probable de que el sol salga o no salga cada mañana se modifica para convertirse en una casi-certeza de que el sol siempre se levantará. 31
  • 32. 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Una chica generalmente prefiere usar pantalón para ir a la Universidad, y falda si va a una fiesta. Es mas, según la frecuencia con que lo hace, se puede asegurar que: P(pantalón/va a la U)=0.8 P(falda/va a una fiesta)=0.9 Los viernes en la tarde esta chica sale a la U con probabilidad p (y a una fiesta con probabilidad 1–p), el valor de p podría ser asignado subjetivamente por un experto (alguien que mira a la chica) o de acuerdo a la frecuencia con la que va a la universidad los viernes (asignación frecuentista de la probabilidad) 32
  • 33. 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Predictor (evidencia): (1): Falda (2): Pantalón P(va a la U)=p Prob. a priori: P(va a F) = 1-p Prob. Posterior: 0.8 p p* P V a a la U pantalón 0.7 p 0.1 P(va a F/pantalón) = 1-P(va a la U/pantalón) P(va a la U/falda)=1- P(va a F/falda) 0.9(1 p) p ** P V a a F falda 0.9 0.7 p 33
  • 34. 4. Bayes, Odds y Razón de verosimilitud Por ejemplo, si la chica los viernes va con tanta frecuencia a la Universidad que a una fiesta: p=0.5 p P V a a la U pantalón 0.88 La evidencia va a aumentar nuestra creencia de que va a la Universidad p ** P V a a Fiesta falda 0.82 O sea que es menos probable que la chica use pantalón si va a la U que use falda si va a una fiesta (0.8<0.9), pero en cambio es más probable que vaya a la U dado que sale con pantalón que vaya a una fiesta si es que sale con falda (0.88>0.82). ¿Paradoja?: 34
  • 35. 4. Bayes, Odds y Razón de verosimilitud La relación entre las probabilidades a posteriori p* y p** en función de la probabilidad a priori p se observa en el siguiente gráfico. En negro p  , en rojo p  1 0.8 0.6 0.4 0.2 p 0.2 0.4 0.6 0.8 1 35
  • 36. 4. Bayes, Odds y Razón de verosimilitud ¿Paradoja?: No, lo que pasa es que no se han analizado los falsos positivos (falsos negativos) Para esto se definen los odds (que tan probable es un evento frente a otro): Razón de verosimiltud: L.R P Bi A P A Bi P Bi P Bj A P A Bj P Bj Odds Posterior Odds Apriori Obs: si A es independiente con Bi y Bj : LR=1 La información de LR es que es una medida de la información contenida exclusivamente en los datos, generalmente se aplica cuando Bi y Bj son complementarios, por ejemplo SANO y ENFERMO, FUNCIONANDO Y 36 DAÑADA, ETC.
  • 37. 4. Bayes, Odds y Razón de verosimilitud Odds: (razón??): Indicador de cuánto mas probable es la ocurrencia de un evento frente a otro En el ejemplo: P U P antalón P U P P antalón U P U 8 P F P antalón P F P P antalón F P F P F Falda P F P Falda F P F 4.5 P U Falda P U P Falda U P U Es decir el predictor Pantalón es más verosímil que falda !! Por ejemplo con p=1/2: Con pantalón es 8 veces más probable acertar con la predicción que va a la Universidad, Con falda es 4.5 veces más probable acertar con la predicción que va a fiesta 37
  • 38. 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Supongamos que la incidencia de una cierta enfermedad en una población es de 0.001. Una prueba de diagnóstico para esta enfermedad tiene una tasa de falsos positivos de 0.05 y una tasa de falsos negativos de 0.01 (es decir un 5% de las pruebas de personas no enfermas indicarán la presencia de la enfermedad, mientras que el 1% de las pruebas en gente enferma no detectarán la presencia de la enfermedad. a) Si una persona se hace la prueba, y el test da positivo, cuál es la probabilidad de que realmente esté enferma? b) Si una persona se hace la prueba, y el test da negativo, cuál es la probabilidad de que realmente esté sana? 38
  • 39. 4. Bayes, Odds y Razón de verosimilitud En las aplicaciones la incertidumbre es común, y no es la excepción. Por ejemplo en el diagnóstico médico: dado que el paciente presenta unos síntomas, cuál de las enfermedades posibles padece?  Los hechos o datos no se conocen con exactitud. Puede o no estar seguro que tuvo fiebre.  El conocimiento no es determinista, las relaciones entre enfermedad y síntomas no son exactas. Estas mismas características se pueden observar en otras aplicaciones:  Control de Calidad  Confiabilidad  Sistemas expertos 39
  • 40. 4. Bayes, Odds y Razón de verosimilitud Modelos Bayesianos (un ejemplo) Se considera el envío de N artículos manufacturados de un lote de producción. Un número desconocido N de estos son defectuosos. Es muy costoso examinar todos los artículos, por lo cual para obtener información sobre la calidad del lote, se obtiene una muestra de n objetos sin reemplazo para ser inspeccionados. El dato observado es el número de artículos defectuosos en la muestra.  Es la proporción de defectuosos en la muestra  N es el parámetro (desconocido), y en principio puede tomar cualquier valor de 0 a N, así, aunque el e.m. esté completamente definido no se puede especificar la estructura de probabilidad completamente, sin embargo se puede determinar una familia {H(N , N, n)} de distribuciones de probabilidad para la variable aleatoria: X= Número de defectuosos en la muestra 40
  • 41. 4. Bayes, Odds y Razón de verosimilitud Modelos Bayesianos (un ejemplo) X= Número de defectuosos en la muestra N N N k n k P X k N n En esta discusión: N es el parámetro, Posibles valores de : {0, 1/N, 2/N,…, 1} Aquí asumimos que no hay más información disponible acerca del verdadero valor del parámetro que la proporcionada por los datos. Sin embargo hay situaciones en las cuales se puede agregar algo mas: vg es posible que en el pasado hemos tenido muchos envíos de tamaño N. Si los clientes nos proveen de registros precisos sobre el número de defectuosos que han recibido, podemos construir una distribución de frecuencias para la proporción de defectuosos pasados. Así se puede pensar en el valor de como en la realización de una v.a. 41
  • 42. 5. Variables Aleatorias Def.- Dado un e.m. , se denomina variable aleatoria (v.a.) a cualquier función: X : IR Las v.a. tienden a hacer “olvidar” el e.m. DISTRIBUCIONES DE PROBABILIDAD: Def.- Dada la v.a. X, se denomina función de distribución a la función: F x P X x P w X w x 42
  • 43. 5. Variables Aleatorias VARIABLES ALEATORIAS DISCRETAS: Una v.a. es discreta si su rango es un conjunto finito o infinito numerable. Provienen de procesos de “contar” VARIABLES ALEATORIAS CONTINUAS: Una v.a. es contínua si F(x) es una función contínua Provienen de procesos de “medir” 43
  • 44. 5. Variables Aleatorias Función de probabilidad p(x): VARIABLES ALEATORIAS DISCRETAS: p(x)=P(X=x) Función de densidad f(x): VARIABLES ALEATORIAS CONTINUAS: b P a X b f x dx a f (x) P(a X b) a b 44
  • 45. 5. Variables Aleatorias VARIABLES ALEATORIAS DISCRETAS: p x 0 p x 1 todo x VARIABLES ALEATORIAS CONTINUAS: f x 0 f x dx 1 45
  • 46. 5. Variables Aleatorias Esperanza de una V.A. X: C aso discreto: E X x p x todo x C aso contínuo: E X x f x dx Esperanza de una función g de la V.A. X: C aso discreto: E g X g x p x todo x C aso contínuo: E g X g x f x dx 46
  • 47. 6. Distribuciones Distribuciones discretas más importantes Experimento binomial: Muchas variables aleatorias discretas están basadas en un experimento (denominado experimento binomial) que satisface las siguientes condiciones:  El experimento consiste en una secuencia de n intentos, donde n se fija antes del experimento.  Los intentos son idénticos, y cada uno de ellos puede resultar en dos posibles resultados, que se denotan por éxito (E) o fracaso (F) (p(E)+p(F)=1).  Los intentos son independientes, por lo que el resultado de cualquier intento en particular no influye sobre el resultado de otro intento.  La probabilidad de éxito es constante de un intento a otro, y se representa por p. 47
  • 48. 6. Distribuciones Distribuciones discretas más importantes Bernoulli: 0 si resu lta fracaso p 0 1 p E X p X 1 si resu lta éx ito p 1 p V ar X p 1 p Ejemplo típico: lanzamiento de una moneda Binomial: Deben cumplirse las características de un experimento binomial X # d e éx ito s en n in ten to s n x n x p x p 1 p ; x 0,1, ..., n x E X np V ar X np 1 p 48
  • 49. 6. Distribuciones Distribuciones discretas más importantes Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de preguntas bien contestadas por un estudiante que responde al azar un examen tipo selección múltiple que consiste de 10 preguntas, cada una con 4 alternativas de las cuales sólo una es correcta. Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de mujeres seleccionadas al seleccionar aleatoriamente 8 personas de un grupo de 500 personas de las cuales 280 son mujeres. En EXCEL la sintaxis es: DISTR.BINOM(x, n, p, falso) 49
  • 50. 6. Distribuciones Distribuciones discretas más importantes Selección de objetos con reemplazo y la distribución binomial: Elegir al azar con reemplazo significa que escogemos al azar un elemento de un conjunto y lo regresamos para elegir de nuevo al azar. Esto garantiza la independencia de las elecciones y nos lleva a una distribución binomial. Si una caja contiene N bolas de las cuales A son rojas, entonces la probabilidad de escoger al azar una bola roja es: p = A/N. Si repetimos el experimento sacando n bolas con reemplazo la probabilidad de que x de ellas sean rojas es: x n x n A A P ( x) 1 (x 0 ,1,.... n ) x N N 50
  • 51. 6. Distribuciones Distribuciones discretas más importantes Ejemplo: (Chuck–a-luck) En este juego se elige un número entre 1 y 6. Luego se lanza tres dados, si el número elegido sale en los 3 dados se cobra 3 dólares, si sale en 2 de los dados se cobra 2 dólares, y si sale en un dado se cobra un dólar. Si el número no sale en ninguno se paga 1 dólar ¿ES UN JUEGO JUSTO? Sugerencia: Hallar la ganancia esperada del juego, si esta es positiva el juego es favorable al jugador, si sale negativa es desfavorable al jugador, si sale cero es indiferente. 51
  • 52. 6. Distribuciones Distribuciones discretas más importantes Geométrica: X # de intentos hasta obtener el primer éxito 1 E X x 1 p p x p 1 p ; x 1, 2, ... 1 p V ar X 2 p Binomial Negativa: X # d e in ten to s h asta o b ten er el r ésim o éx ito r x 1 r x r E X p x p 1 p ; x r, r 1, ... p r 1 r 1 p Var X 2 p En EXCEL la sintaxis es: NEGBINOMDIST(x-r, r, p) 52
  • 53. 6. Distribuciones Distribuciones discretas más importantes Selección de objetos sin reemplazo y distribución hipergeométrica: Hipergeométrica: Si en un grupo de N objetos, r de ellos tienen cierta característica estudiada que los hace distintos del resto (es decir r objetos de un tipo y N-r objetos de otro tipo), y de estos N objetos se seleccionan al azar (sin reposición) n objetos (este es por ejemplo el caso de muestreo). Entonces la variable aleatoria X: número de objetos seleccionados que tienen la característica estudiada, sigue una distribución hipergeométrica con parámetros N, r, n. r N r x n x nr p x ; x r, n x N r; E X N N n 53
  • 54. 6. Distribuciones Distribuciones discretas más importantes Selección de objetos sin reemplazo y distribución hipergeométrica: En un lote de 50 computadoras el 10% tiene fallas, si se inspecciona al azar una muestra de 4 computadoras: a. Cuál es la probabilidad que exactamente 2 tengan fallas b. Cuál es la probabilidad que al menos una tenga falla c. Cuál es la probabilidad que a lo mucho 2 tengan fallas En EXCEL la sintaxis es: DISTR.HIPERGEOM(x. n, r, N) 54
  • 55. 6. Distribuciones Distribuciones discretas más importantes Poisson: Una variable aleatoria X de Poisson “cuenta” el número de eventos (independientes) que ocurren en una unidad de tiempo, de espacio, de volumen, etc. Por ejemplo: el número de llegadas de personas a la fila de un cajero en un banco en una hora, el número de faltas de ortografía que comete una mecanógrafa en una hoja, el número de accidentes de trabajo por operario en un año determinado en una empresa, el número de llamadas que llegan a una central telefónica por minuto. Su distribución de probabilidades es: x E X p x e ; x 0,1, 2, ... x! V ar X 55
  • 56. 6. Distribuciones Distribuciones discretas más importantes A una operadora de transporte terrestre ingresan en promedio 20 camiones en una hora. El administrador ha determinado (con una prueba K-S) que el número de camiones que llegan por hora se distribuye aproximadamente con una distribución de Poisson. La capacidad de las instalaciones es para servir hasta 25 camiones por hora. a. Cuál es la probabilidad que en una hora determinada ingresen exactamente 20 camiones? b. Menos de 20 camiones? c. Que la capacidad de las instalaciones se vea desbordada? En EXCEL la sintaxis es: POISSON(x, , falso) 56
  • 57. 6. Distribuciones Distribuciones discretas más importantes En un cruce de carreteras se producen accidentes a razón de 2 por semana (en media), siguiendo aproximadamente una distribución de Poisson. Reconociendo que la frecuencia anterior es intolerable se ha decidido instalar un semáforo en dicho cruce. La siguiente semana de la instalación sólo ocurre un accidente. a) ¿ Se puede afirmar que el semáforo es efectivo ?. b) ¿ Cuál sería la conclusión si se hubiera producido un accidente en dos semanas ?. c) ¿ Y si se hubiera producido un accidente en 4 semanas ? 57
  • 58. 6. Distribuciones Distribuciones discretas más importantes Bombas sobre Londres en la II Guerra Mundial (Feller) Supón que vivías en uno de los 100 bloques que aparecen en la gráfica inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100. Como cayeron 400 bombas, podemos entender el número de impactos en un bloque como una variable aleatoria de Poisson con λ=400 1/100=4: Observado Predicho 58
  • 59. 6. Distribuciones Distribuciones contínuas más importantes Uniforme: Una variable aleatoria tiene distribución uniforme en el intervalo [a, b], si su función de densidad es: 2 1 a b b a f x ; a X b E X ; V ar X b a 2 2 Se representa con X U[a,b] a b Ejemplo: Se conoce que el tiempo que emplea un camión en llevar material desde una cantera hasta un centro de acopio se distribuye aproximadamente mediante una distribución uniforme y que el viaje dura entre 1 hora y 1 hora y 45 minutos. a. Cuál es la probabilidad que un camión emplee entre 1h:10 y 1h:25 b. Cuál es la probabilidad que un camión emplee más de 1h:15 c. Si se demora más de una hora y media la empresa es multada con 5$. En un día normal salen 20 de estos camiones. ¿cuál es el costo esperado diario por multas que deberá pagar la empresa? 59
  • 60. 6. Distribuciones Distribuciones contínuas más importantes Normal: Una variable aleatoria X tiene distribución normal con parámetros y 2 si su función de densidad es: 2 x 1 2 2 f x e ; x IR 2 μ 2 Donde: E X ; Var X Se representa con X N[ , 2] 60
  • 61. 6. Distribuciones Distribuciones contínuas más importantes Normal: Un gran número de estudios indica que la distribución normal proporciona una adecuada representación, por lo menos en una primera aproximación, de las distribuciones de una gran cantidad de variables físicas. Algunos ejemplos específicos incluyen datos meteorológicos tales como la temperatura y la precipitación pluvial, mediciones efectuadas en organismos vivos, calificaciones en pruebas de actitud, mediciones físicas de partes manufacturadas, errores de instrumentación, demanda de productos y otras, etc. Sin embargo, debe tenerse mucho cuidado al suponer para una situación dada un modelo de probabilidad normal sin previa comprobación. Si bien es cierto que la distribución normal es la que tiene un mayor uso, es también de la que más se abusa. Quizá esto de deba a la mala interpretación de la palabra "normal“ Suponer de manera errónea una distribución normal puede llevar a errores muy serios. 61
  • 62. 6. Distribuciones Distribuciones contínuas más importantes Normal: Esta función tiene un gran número de aplicaciones en estadística, incluidas las pruebas de hipótesis. En Excel la sintaxis es:  Para la distribución acumulada: DISTR.NORM(x, , , acum)  Para la inversa: DISTR.NORM.INV(1- , , ) 1- x 62
  • 63. 6. Distribuciones Distribuciones contínuas más importantes Normal: (Ejemplo) La demanda mensual de cierto producto se distribuye aproximadamente normal con media de 200 y desviación estándar de 40. ¿Qué tan grande debe ser el inventario disponible a principio de un mes para que la probabilidad de que la existencia se agote no sea mayor de 0.05? (Ejemplo) El Bar "El Imperio" sirve chop a sus clientes. Se ha determinado que la demanda diaria de barriles de cerveza sigue una distribución normal con una media de 18 barriles y una desviación estándar de 4 barriles. La empresa opera 330 días al año. El costo de emisión de un pedido es $40 y el costo de mantenimiento es de $0.20 por barril por día. El tiempo de provisión requerido para recibir un pedido de barriles de cerveza desde el distribuidor es de 3 días. Determinar: a) El tamaño del lote óptimo de compra. b) El stock de seguridad y el punto de reabastecimiento si el Bar y Restaurante "El Imperio" desea que el nivel de servicio sea de un 90 %. c) ¿Cuál sería el incremento en el stock de seguridad si un nivel de servicio de 95 % fuera deseado? 63
  • 64. 6. Distribuciones Distribuciones contínuas más importantes Normal: (Ejemplo) Teniendo en cuenta que el diámetro de las naranjas de exportación sigue una distribución normal, un determinado inspector conoce por su dilatada experiencia que el 30% de las naranjas que examina tienen un diámetro inferior a 60 mm y el 20% tienen el diámetro superior a 100 mm. a) El país A exige que el diámetro esté comprendido entre 75 y 90 mm. Calcular la probabilidad de que esto ocurra en una determinada partida. b) Calcular el intervalo de extremos simétricos respecto a la media que cubra el 90% de las naranjas. c) El país B exige que el diámetro no baje de los 50 mm. La inspección se realiza midiendo el diámetro de 10 naranjas y rechazando una determinada partida si se encuentran más de dos naranjas con un diámetro inferior a 50 mm. Calcular la probabilidad de que una partida sea aceptada. 64
  • 65. 6. Distribuciones Distribuciones contínuas más importantes Exponencial: Una variable aleatoria X tiene una distribución exponencial con parámetro , si su densidad es: 1 x/ f x e ; x>0 2 Donde: E X ; Var X Se suele representar con =1/ En el caso que X represente el tiempo entre llegadas, es el tiempo promedio entre llegadas y sería la frecuencia de llegadas por 1 ut 65
  • 66. 6. Distribuciones Distribuciones contínuas más importantes Exponencial: Esta distribución permite (entre otras cosas) establecer el tiempo entre dos sucesos, tal como el tiempo que tarda una máquina de cajero automático en entregar efectivo, el tiempo entre la llegada de dos camiones a una terminal, etc. La sintaxis en EXCEL es:  Para la distribución acumulada: DISTR.EXP(x, , acum) 66
  • 67. 6. Distribuciones Distribuciones contínuas más importantes Exponencial: (Ejemplo) El promedio de llegada de camiones a una bodega para ser descargados es de 3 camiones por cada hora. Se ha determinado que el tiempo que transcurre entre dos llegadas sucesivas de camiones es exponencial. a. Encuentre la probabilidad de que dado que en un momento llegó un camión, el próximo llegue antes de 10 minutos. b. Encuentre la probabilidad de que dado que en un momento llegó un camión, el próximo llegue después de cuarto de hora. c. Calcule la probabilidad de que durante una jornada de 8 horas lleguen como máximo 20 camiones a descargar NOTA: Si el tiempo entre dos llegadas es Exponencial( ), el número de llegadas por unidad de tiempo es Poisson( ) 67
  • 68. 6. Distribuciones Distribuciones contínuas más importantes Beta: Una variable aleatoria X tiene una distribución exponencial con parámetros y , si su función de densidad es: 1 1 f x x 1 x ; 0< x<1 1 Donde: E X ; V ar X 2 1 Se representa con X ( , ) Otras: Poisson truncada, Weibull, Erlang, Lognormal, Pareto, Cauchy, logística, etc 68
  • 69. 6. Distribuciones Distribuciones contínuas más importantes Beta:La distribución beta se usa generalmente para estudiar las variaciones, a través de varias muestras, de un porcentaje que representa algún fenómeno, por ejemplo, el tiempo diario que la gente dedica a mirar televisión, el porcentaje de artículos con fallas en un lote, el porcentaje de impurezas en un producto, el porcentaje de tiempo que realmente trabaja un empleado en su horario de trabajo, la distribución del intervalo de tiempo necesario para completar una fase de proyecto PERT, etc. La sintaxis en EXCEL es:  Para la acumulada: DISTR.BETA(x; , )  Para la inversa: DISTR.BETA.INV(p, , ) 69
  • 70. 6. Distribuciones Distribuciones contínuas más importantes Beta: (Ejemplo) Se ha determinado que la proporción anual de nuevos restaurantes que fracasan y quiebran en una ciudad sigue una distribución beta β (1, 4). Determinar : a) La proporción anual de nuevos restaurantes que se espera fracasen en la ciudad dada. b) La probabilidad de que al menos el 25% de los nuevos restaurantes fracasen en la ciudad un año cualquiera. (Ejemplo) Los sensores infrarrojos de un sistema robótico computarizad envían información a otros sensores en diferentes formatos. El porcentaje X de las señales que se envían y que son directamente compatibles para todos los sensores del sistema sigue una distribución beta con α = β = 2. a) Calcule la probabilidad de que más del 30% de las señales de infrarrojos enviadas en el sistema sean directamente compatibles para todos los sensores. b) Calcula la media y la varianza de X 70
  • 71. 6. Distribuciones Distribuciones conjuntas Si se tienen las v.a. X1, X2, …, Xk se denomina al vector X=(X1, X2, …, Xk) vector aleatorio. Def.- La función de distribución conjunta de un vector aleatorio X es: F (x1, x2, …, xk)=P(X1 x1, X2 x2, …, Xk xk) OBS: Dada la f.d.c. de un vector aleatorio X, podemos determinar: P(X A) A IRk 71
  • 72. 6. Distribuciones Distribuciones conjuntas Funciones de densidad: CASO DISCRETO: Def: Si X1, X2, …, Xk son v.a.d. definidas en el mismo espacio muestral, la función de distribución de probabilidades conjunta es: p(x1, x2, …, xk)=P(X1=x1, X2 =x2, …, Xk =xk) CASO CONTINUO: Def: En el caso contínuo se define la función de densidad conjunta como: f(x1, x2, …, xk) tal que: P(X A)  f x1 , x 2 , ..., x k dx1 dx 2 ...dx k A 72
  • 73. 6. Distribuciones Distribuciones conjuntas Distribuciones Marginales: CASO DISCRETO: Def: Si X1, X2, …, Xk son v.a.d. con f.d.p. conjunta p(x1, x2, …, xk), se denomina f.d.p. marginal de xi a: p i ( xi )   p x1 , x 2 , ..., x k x1 x2 xi 1 xi 1 xk CASO CONTINUO: Def: En el caso contínuo se define la función de densidad marginal de xi a: f i ( xi )  f x1 , x 2 , ..., x n dx1 ...dx i 1 dx i 1 ...dx n 73
  • 74. 6. Distribuciones Distribuciones conjuntas Independencia: Def: X1, X2, …, Xk se denominan v.a. independientes si para cualquier subconjunto X1, X2, …, Xp: p f x1 , ..., x p f i xi i 1 74
  • 75. 7. INFERENCIA ESTADISTICA Estimación de parámetros Cuando se supone conocida una distribución para las observaciones dadas, el parámetro ( ) generalmente es desconocido, es decir se supone conocida la “forma” de la distribución salvo el valor de su parámetro. Para estimar el valor del parámetro se usan las observaciones para obtener un número, denominado el “estimador”, representado con ˆ Pero, ¿cómo obtener buenos estimadores? -Método de los momentos -Método de la Máxima Verosimilitud 75
  • 76. 7. INFERENCIA ESTADISTICA Estimación de parámetros Estimadores de Máxima Verosimilitud (ML) Dadas las observaciones X1, X2, …, Xn, obtenidas de una población con densidad f(x; ), se denomina función de verosimilitud de la muestra a: n L( X ; ) f x1 , x 2 , ..., x n / f xi i 1 El estimador de máxima verosimilitud delˆ parámetro es el valor de que maximiza L. Es decir, se obtiene resolviendo la ecuación vectorial: L L( X ; ) 0 76
  • 77. 7. Inferencia estadística INTERVALOS DE CONFIANZA  Los intervalos de confianza para un parámetro cualquiera (por ejemplo la media) nos dan un rango de valores alrededor del estimador dónde esperamos se encuentre el verdadero valor del parámetro (de la población), con cierto nivel dado de certeza.  Es decir, un intervalo de confianza de (1- ) 100% de confianza para un parámetro es un intervalo de la forma: [LIC, LSC], donde: P(LIC LSC) = 1- 77
  • 78. 7. Inferencia estadística INTERVALOS DE CONFIANZA  Ejemplo: En una hacienda hay 2000 reses, se ha escogido una muestra de 50 reses y se ha obtenido que en promedio pesan 420 Kg. Se conoce que la desviación típica de los pesos de las reses es de 48 kg. a. Hallar el IC del 90% para el peso promedio real de las reses de la hacienda. b. Hallar el IC del 98% para el peso promedio real de las reses de la hacienda. 78
  • 79. 7. Inferencia estadística PRUEBAS DE HIPOTESIS ¿Qué es una prueba de hipótesis? Es un procedimiento estadístico diseñado para comprobar una hipótesis que se hace el investigador sobre un parámetro desconocido o sobre la distribución de una población.  Las pruebas de hipótesis se realizan en todos los ámbitos en los cuales puede contrastarse la teoría frente a la observación, probar una hipótesis implica tomar una decisión al comparar la muestra observada con una suposición que se hace de la realidad. 79
  • 80. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Los elementos de una prueba de hipótesis son: - Hipótesis Nula (Ho) - Hipótesis Alternativa (Ha) - Estadístico de Prueba (EP) - Región de rechazo (R.R.) - o nivel de significancia (p) 80
  • 81. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Decisión y error en una P.H. Decisión Rechazar Ho Aceptar Ho Ho es verdadera Error tipo I Decisión Correcta Ho es falsa Decisión Correcta Error tipo II 81
  • 82. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Decisión y error en una P.H. P(Error tipo I)= P(Error tipo II)= Nivel de significancia: Menor valor de alfa para el cual se rechaza la hipótesis nula 82
  • 83. 7. Inferencia estadística PRUEBAS DE HIPOTESIS  La significancia estadística de un resultado es la probabilidad que la relación observada (por ejemplo, entre las variables) o una diferencia (por ejemplo, entre las medias) en una muestra ocurrió por pura coincidencia (“la suerte de la lotería”), y que en la población de la que la que se escoge la muestra no existe tal relación o diferencias  En muchas áreas de investigación, el valor p de .05 se toma habitualmente como un valor crítico del nivel del error aceptable 83
  • 84. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Pruebas inferenciales mas frecuentes de acuerdo a la escala de medición 84
  • 85. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBA t La prueba t para muestras independientes  La prueba t es el método mas comúnmente usado para evaluar las diferencias entre las medias de dos grupos.  Teóricamente, la t-prueba puede usarse aun cuando los tamaños de la muestra son muy pequeños (por ejemplo, tan pequeño como 10; algunos investigadores exigen por lo menos eso)  El nivel p reportado en una t-prueba representa la probabilidad de error involucrada en aceptar nuestra hipótesis investigada sobre la existencia de una diferencia. 85
  • 86. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBA t  Gráficos de la prueba t. En el análisis de la prueba t, las comparaciones entre las medias y las medidas de variación en los dos grupos pueden visualizarse en los diagramas de caja 86
  • 87. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBA DE ANOVA  A menudo sucede en la investigación práctica que se necesita comparar más de dos grupos (por ejemplo, medicina 1, medicina 2, y placebo), o comparar grupos creados por más de una variable independiente y controlando la influencia separada de cada uno de ellos (por ejemplo, Género, el tipo de Droga, y tamaño de Dosis).  En estos casos, se necesita analizar los datos usando el denominado Análisis de Varianza, que puede considerarse como una generalización de la prueba t 87
  • 88. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBAS NO PARAMETRICAS  Muchas veces no se puede asumir una distribución dada para una población de donde se han obtenido la(s) muestra(s), en ese caso se deben utilizar las denominadas pruebas no paramétricas o libres de distribución, a continuación se presenta una tabla donde se observan las pruebas no paramétricas equivalentes a las paramétricas. 88
  • 89. 8. Pruebas de Bondad de ajuste Muchas veces no se está claro si se cumplen los supuestos de alguna distribución, otras veces es necesario asumir una distribución teórica para modelizar la distribución de una variable, para esto se tienen las pruebas de bondad de ajuste. Las pruebas de bondad de ajuste más usadas son: -Prueba 2 -Prueba K-S (Kolmogorov – Smirnov) 89
  • 90. 8. Prueba de Bondad de ajuste 2 Se pueden clasificar a las GOF (goodness-of-fit) en dos grupos: (1) Las que dividen al rango de los datosPrueba 2 en “casillas” disjuntas, y luego el número de observaciones que caen en cada casilla es comparado con el número esperado bajo la distribución supuesta en la hipótesis nula. Es natural usarlas en el caso discreto. Prueba K-S (2) En estas pruebas se comparan la función de distribución empírica de la muestra y la función teórica dada en la hipótesis nula. El estadístico de prueba está basado en alguna medida de distancia entre las dos distribuciones. Se usan casi exclusivamente para el caso de distribuciones contínuas. 90
  • 91. 8. Prueba de Bondad de ajuste 2 En la prueba 2 lasn observaciones son agrupadas en k casillas disjuntas, c/u de las cuales debe contener por lo menos 5 observaciones, sea ni la frecuencia observada en la casilla i. Lo que se desea probar es: Ho: La distribución de la población es Fo, vs. Ha: La distribución de la población no puede ser Fo, Con la distribución Fo dada en Ho, se calculan las probabilidades de casilla pi, y luego la frecuencia esperada de casilla = n pi 91
  • 92. 8. Prueba de Bondad de ajuste 2 El estadístico de prueba es: 2 k 2 F .O . F .E . i 1 F .E . Y la región de rechazo es: 2 2 con k -1- L grados de libertad Siendo L el número de parámetros que se deben estimar. Nota: La distribución 2 con grados de libertad se define como una distribución Gamma con parámetros = /2 y =2 92
  • 93. 8. Prueba de Bondad de ajuste 2 En resumen, la Prueba de bondad de ajuste 2 es: Ho: La distribución de la población es Fo(x) Ha: La distribución de la población no puede ser Fo(x) 2 k 2 F .O . F .E . E.P.: i 0 F .E . 2 2 R.R.: Obs: La frecuencia observada de cada casilla F.O. debe ser 5 93
  • 94. 8. Prueba de Bondad de ajuste K-S Ho: La distribución de la población es Fo Ha: La distribución de la población no puede ser Fo E.P.: D m áxim a distancia Fo ( x ), F x R.R.: D Dn, La función F(x) es la distribución empírica de la muestra 94
  • 95. 8. Prueba de Bondad de ajuste K-S 95
  • 96. 9. Métodos de pronóstico: regresión lineal y medias móviles. La previsión de la demanda (mas comúnmente conocida como el pronóstico de la demanda) es la estimación de los niveles futuros que adoptará la demanda y es un elemento de gran relevancia en la planificación de la empresa y, por tanto, en la definición de los objetivos de los diferentes departamentos de la empresa. Los métodos de estimación de la demanda se clasifican en dos tipos: •Los métodos cuantitativos •Los métodos cualitativos Ver documento “pronóstico de la demanda.doc” 96
  • 97. 10. Generalización del teorema de Bayes  La regla de Bayes también se puede aplicar a v.a.c.. Supongamos que tenemos una v.a.c. x que es especificada por una distribución indexada por un parámetro A priori: Podemos cuantificar nuestro conocimiento a priori acerca del valor del parámetro y estimar una distribución a priori p Verosimilitud Esta es la distribución (o verosimilitud) de la v.a. x, es decir: p x 97
  • 98. 10. Generalización del teorema de Bayes A posteriori: Aplicando la regla de Bayes obtenemos la distribución posterior: p p x p x = p x Donde el denominador es: p x = p p x d  Cualquier tipo de inferencias pueden hacerse a partir de la distribución posterior del parámetro del modelo , donde el dato x incluye información tanto de la a priori como de la verosimilitud. 98
  • 99. 10. Generalización del teorema de Bayes Esto es generalizado para una muestra aleatoria x1, x2, …, xn proveniente de una distribución que depende de los parámetros 1, 2, …, j. A Priori: Cuantificamos nuestras creencias acerca de los parámetros en la forma de una distribución conjunta. p( 1, 2, …, j) Donde no necesariamente son independientes. Verosimilitud: Con la muestra, la distribución conjunta de las observaciones es: n p x1 ,  , x n 1 , , J = p xi 1 , , J i 1 99
  • 100. 10. Generalización del teorema de Bayes Posterior: Aplicando la regla de Bayes: p 1 , , J p x1 ,  , x n 1 , , J p , , x1 ,  , x n = 1 J p x1 , , x n Donde el denominador es: p x1 ,  , x n = p 1 , , J p x1 , , x n d 1 d J Notación: p 1 , , J x1 ,  , x n kp 1 , , J p x1 ,  , x n 1 , , J p 1 , , J p x1 ,  , x n 1 , , J 100
  • 101. 10. Generalización del teorema de Bayes  la estadística Bayesiana es nada más que un modelo formal de aprendizaje en un ambiente de incertidumbre aplicado a la inferencia estadística. Lo a priori expresa mis creencias sobre antes de observar los datos; mientras que la distribución expresa mis creencias actualizadas sobre después de observar los datos.  A partir de esto, llevar a cabo un análisis Bayesiano es ilusoriamente simple y siempre se procede de la siguiente manera:  Formular la distribución muestral p y | y la distribución a priori p .  Calcular la distribución posterior p | y según Bayes  ¡Eso es todo! Toda la información acerca de está contenida ahora en la distribución posterior. Por ejemplo la probabilidad que A es: P A| y p |y d A 101
  • 102. 10. Generalización del teorema de Bayes  Ya que la distribución posterior es la representación completa de sus creencias sobre , a veces es conveniente informar una sola estimación, por ejemplo el valor más probable de , este se denomina entonces el estimador bayesiano de .  Aplicación: sea y = x1, x2, …, xn una muestra aleatoria de puntuaciones, con la suposición que estas provienen de una población normal con media y varianza 2, 2 xi  N , i .i . d . n n/2 n 1 2 p y 2 ex p 2 xi 2 i 1  Si usamos la a priori: 1/ 2 1 1 2 p 2 0 exp 2 0 2 0 102
  • 103. 10. Generalización del teorema de Bayes  Donde 0 y 02 son la media y la varianza a priori conocidas, antes de conocer los datos  La distribución posterior de es: p y p p y p p y p y p y p d  El numerador es: n n 1 /2 n 1 1 2 1 2 p y p 2 0 exp 2 xi 2 0 2 i 1 2 0 2 2 n/ x 1/ 0 0 2 1 C on 2 2 ; 2 2 n/ 1/ 0 n/ 1/ 0 103
  • 104. 10. Generalización del teorema de Bayes n 1 2 1 2 Si h y 2 xi x 2 1 2 x 0 2 i 1 2 0 n  Entonces: n 1/ 2 1 1 2 p y p p y 2 exp 2 2 i 1 n/2 n 1  Donde: p y 2 0 exp h y  Luego: 1/ 2 1 1 2 p y 2 exp 2 2  O también: 1 2 p y exp 2 2 104
  • 105. 10. Generalización del teorema de Bayes  En el siguiente gráfico se observan las densidades a priori y posterior de para diferentes muestras.  Muestra: {1,0,6,0,3} 1 0.8 0.6 0.4 0.2 105 -2 -1 1 2 3 4 5
  • 106. 11. TEORIA DE LA DECISION Def: La teoría de la decisión estudia los métodos analíticos que proveen las herramientas para analizar situaciones en las cuales hay que tomar una o más decisiones. La decisión tomada debe ser la mejor posible respecto a algún criterio de optimalidad ( o la mejor posible “en promedio”) 106
  • 107. 11. TEORIA DE LA DECISION AMBIENTES SOBRE LOS CUALES SE TOMA DECISIONES  Decisiones bajo Certidumbre  Decisiones bajo incertidumbre  Decisiones bajo riesgo 107
  • 108. 11. TEORIA DE LA DECISION Decisiones bajo Certidumbre: Se conocen con certeza los resultados o consecuencias de seleccionar cada alternativa Ejemplo: Se tienen 1000$ a invertir en un año, se los puede poner en una libreta de ahorros al 3.0% de interés anual o comprar un certificado de depósito que paga el 5% anual. Asumiendo que ambas alternativas son seguras el certificado de depósito nos da un retorno mayor. La decisión óptima está clara, fácil de obtener!. 108
  • 109. 11. TEORIA DE LA DECISION Otros problemas de decisión bajo certidumbre son muy complicados, en ese caso solo se puede obtener una “buena” solución. Ejemplo: Se tienen 100 clientes, a los cuales se debe entregar cierto producto en determinado intervalo de tiempo, se conoce la ubicación, la demanda y la ventana de tiempo de los clientes. También se tiene un depósito, desde donde deben salir los vehículos (que tienen una capacidad q conocida) cargados para satisfacer la demanda de los clientes. Se debe decidir cuántos vehículos enviar y por donde enviarlos. 109
  • 110. 11. TEORIA DE LA DECISION Red física: Ubicaciones de clientes 110
  • 111. 11. TEORIA DE LA DECISION 0 Grafo matemático: Nodos, arcos y pesos 111
  • 112. 11. TEORIA DE LA DECISION 64 2 44 41 37 36 46 45 38 9475 43 40 39 87 3 42 80 71 101 62 73 74 61 56 69 55 89 82 79 72 97 99 70 94 54 1 91 81 95 18 1513 48 83 92 93 68 17 12 16 11 66 67 96 14 10 100 57 63 51 35 30 28 32 53 84 65 33 2927 31 85 88 87 58 34 86 60 75 52 64 98 25 21 23 50 77 59 20 76 26 22 19 24 49 90 78 Obtención de rutas individuales 112
  • 113. 11. TEORIA DE LA DECISION Costo del ruteo: 19794 Costo del ruteo: 1307 113
  • 114. 11. TEORIA DE LA DECISION Decisiones bajo Incertidumbre: No se conocen las probabilidades asociadas con los diferentes resultados de cada alternativa. Ejemplo: Un empresa estudia la posibilidad de añadir un nuevo producto a su línea de producción. Las alternativas que se estudian son: hacer una ampliación grande, hacer una ampliación pequeña, o no hacer ninguna ampliación a las actuales instalaciones para producir el nuevo producto. Si no conocemos las probabilidades asociadas con cada uno de los resultados para las distintas alternativas tenemos que tomar una decisión bajo una completa incertidumbre. 114
  • 115. 11. TEORIA DE LA DECISION Decisiones bajo Riesgo: Se conocen las probabilidades asociadas con los diferentes resultados de cada alternativa. Ejemplo: Si en el ejemplo anterior se conocen estimaciones de las probabilidades asociadas a la posible demanda del nuevo producto, por ejemplo a través de un estudio de mercado, tenemos un problema de decisión bajo riesgo. 115
  • 116. 11. TEORIA DE LA DECISION  El origen de la teoría de la decisión para la toma de decisiones se deriva de la economía, en el área de la función de la utilidad del pago. Propone que las decisiones deben tomarse calculando la utilidad y la probabilidad de rangos de opciones, y establece estrategias para una buena toma de decisiones. Proceso de Toma de Decisiones Estadísticas  A diferencia de los procesos de toma de decisiones determinísticas tal como, optimización lineal resuelto mediante sistema de ecuaciones, sistemas paramétricos de ecuaciones y en la toma de decisión bajo pura incertidumbre, las variables son normalmente más numerosas y por lo tanto más difíciles de medir y controlar. Sin embargo, los pasos para resolverlos son los mismos. Estos son: 116
  • 117. 11. TEORIA DE LA DECISION  1. Simplificar  2. Construir un modelo de decisión  3. Probar el modelo  4. Usar el modelo para encontrar soluciones: El modelo es una representación simplificada de la situación real No necesita estar completo o exacto en todas las relaciones Se concentra en las relaciones fundamentales e ignora las irrelevantes. Este es entendido con mayor facilidad que un suceso empírico (observado), por lo tanto permite que el problema sea resuelto con mayor facilidad y con un mínimo de esfuerzo y pérdida de tiempo.  5. El modelo puede ser usado repetidas veces para problemas similares, y además puede ser ajustado y modificado. 117
  • 118. 11. TEORIA DE LA DECISION Elementos de la teoría de decisiones:  El análisis de decisiones es un proceso que le permite al decisor seleccionar una decisión (sólo una) entre un conjunto de alternativas posibles de decisión, cuando existe incertidumbre con respecto al futuro, con el objetivo de optimizar el pago (retorno) resultante, en términos de algún tipo de criterio de decisión numérico. Los elementos de los problemas de análisis de decisiones son los siguientes:  Hay un decisor responsable individual.  Un número finito de eventos (futuros) posibles, llamados Estados de la Naturaleza, es decir, un conjunto de escenarios posibles. Las circunstancias en las cuales se toma una decisión se llaman estados de la naturaleza. Los estados de la naturaleza se identifican y agrupan en el conjunto ; los miembros se denotan como . El conjunto es un grupo de conjuntos mutuamente excluyentes. Es decir, sólo puede ocurrir un estado de la naturaleza. ¿Qué puede hacer la naturaleza? 118
  • 119. 11. TEORIA DE LA DECISION Elementos de la teoría de decisiones:  Un número finito de alternativas posibles de decisión. Hay una acción a, miembro del conjunto A, que puede ser adoptada por el decisor. Sólo puede adoptar una. ¿Qué puedo hacer? Una buena decisión requiere buscar un conjunto más rico de alternativas que las que se presentaron inicialmente o que las aceptadas tradicionalmente.  La manera más sencilla de formular el problema de decisión es usando una matriz de beneficios (o tabla de pagos). Suponemos que se puede construir una matriz de beneficios L bien definida, monetaria (y luego de utilidad) sobre dos conjuntos de dominio dimensionales A y . Las filas y las columnas se asignan a las alternativas de decisión posibles y a los estados posibles de la naturaleza, respectivamente. Normalmente no es tarea sencilla construir esta matriz; por lo tanto, puede requerir algo de práctica.  Generalmente, esta función refleja una ganancia, si el problema se plantea en términos de pérdidas, estas se pueden expresar como ganancias negativas. Un valor de la matriz de pagos l(a, ) representa el pago asociado a esta combinación acción - estado de la naturaleza. 119
  • 120. 11. TEORIA DE LA DECISION Fuente de Errores en la Toma de Decisiones:  La fuente principal de errores en los problemas de toma de decisiones arriesgadas son las presunciones falsas, no tener una estimación exacta de las probabilidades, depender de la expectativa, dificultades en medir la función de utilidad, y los errores de pronóstico. 120
  • 121. 11. TEORIA DE LA DECISION Acciones dominadas:  En los problemas de decisión suelen existir muchas acciones posibles, por lo tanto es conveniente que previamente se lo reduzca tanto como sea posible.  Decimos que una acción a’ es dominada por una acción a, si los pagos para a son mejores que los pagos para a’, sin importar el estado de la naturaleza. Es decir: : l a, l a ',  Si los pagos son ganancias, al contrario si son costos 121
  • 122. 11. TEORIA DE LA DECISION EJEMPLO:  Una compañía de computadoras compra chips a dos proveedores, A y B. En cada orden de 1000 chips (independientemente del proveedor) puede haber 1%, 3%, o 5% de chips defectuosos. El proveedor A vende el paquete de 1000 chips por $300 y el proveedor B lo vende por $302. Cada chip defectuoso se devuelve a un costo de $0.15 por chip. ¿A cuál proveedor conviene comprar los chips? Estados de la naturaleza % defectuosos Proveedor 1% 3% 5% Acciones A -301.5 -304.5 -307.5 B -303.5 -306.5 -309.5 Acción dominada Pagos 122
  • 123. 11. TEORIA DE LA DECISION EJEMPLO:  Una compañía de computadoras compra chips a dos proveedores, A y B. En cada orden de 1000 chips (independientemente del proveedor) puede haber 1%, 3%, o 5% de chips defectuosos. El proveedor A vende el paquete de 1000 chips por $300 y el proveedor B lo vende por $302. Cada chip defectuoso adquirido al proveedor A es devuelto a un costo de $0.15 por chip, mientras que uno defectuoso adquirido al proveedor B es devuelto a un costo de $0.05 ¿A cuál proveedor conviene comprar los chips? TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5 ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5 123
  • 124. 11. TEORIA DE LA DECISION OBSERVACIONES A PARTIR DE LA TEORIA DE JUEGOS:  El pago es una medida cuantitativa del valor de las consecuencias del resultado para el tomador de decisiones, en este sentido muchas veces el pago se representa por la ganancia monetaria neta (utilidad). Si las consecuencias del resultado no son completamente ciertas aun cuando ocurra el estado de la naturaleza, entonces el pago se convierte en un valor esperado (en el sentido estadístico) de la medida de las consecuencias  Sea l(a, ) el pago al tomar la acción a cuando el estado de la naturaleza es . En general, se usa una tabla de pagos para cada combinación de a y y ; en el contexto de la teoría de juegos el tomador de decisiones y la naturaleza se pueden ver como dos jugadores.  Las acciones posibles y los estados de la naturaleza posibles se pueden ver como las estrategias disponibles para los respectivos jugadores, donde cada combinación de estrategias da como resultado un pago para el jugador 1 (el tomador de decisiones). 124
  • 125. 11. TEORIA DE LA DECISION  Así se tiene que: - El tomador de decisiones necesita elegir una de las acciones posibles - La naturaleza elegirá luego uno de sus estados (de la naturaleza) posibles, cada combinación de una acción a y un estado de la naturaleza da como resultado uno de los elementos de la tabla de pagos. Esta tabla de pagos debe usarse para encontrar una acción óptima para el tomador de decisiones según un criterio adecuado.  Si consideramos que en la teoría de juegos ambos jugadores son racionales y eligen sus estrategias para promover su propio beneficio, esto se ajusta al tomador de decisiones pero no a la naturaleza ya que esta es un jugador pasivo que elige sus estrategias (estados de la naturaleza) de una manera aleatoria. 125
  • 126. 11. TEORIA DE LA DECISION TIPOS DE MODELOS DE DECISION:  Existen tipos diferentes de modelos de decisión que ayudan a analizar distintos escenarios, dependiendo de la cantidad y el grado de conocimiento que tengamos. Los tres tipos más ampliamente utilizados son: – Decisión tomada con pura incertidumbre, – Decisión tomada con riesgo, – Decisión tomada comprando información (empujando el problema hacia el "polo" determinista) 126
  • 127. 11. TEORIA DE LA DECISION TOMA DE DECISIONES BAJO INCERTIDUMBRE: En las decisiones tomadas con pura incertidumbre, el decisor no tiene ningún conocimiento, ni siquiera de la probabilidad de ocurrencia de cualquier estado de la naturaleza. En este caso, el comportamiento del decisor se basa puramente en su actitud hacia lo desconocido. Algunos de estos comportamientos son los optimistas, los pesimistas y los de arrepentimiento, entre otros.  Optimista: El vaso está medio lleno.  Pesimista: El vaso está medio vacío.  Gerente: El vaso es el doble de grande de lo necesario. 127
  • 128. 11. TEORIA DE LA DECISION Comportamiento según los tipos de personalidad y la toma de decisiones con pura incertidumbre:  Pesimismo, o Conservador (MAXIMIN). Las cosas malas siempre me suceden a mí.  Optimismo, Agresivo (MAXIMAX). Las cosas buenas siempre me suceden a mí.  Mínimo arrepentimiento: (Pérdida de Oportunidad de Savage). Odio las lamentaciones. Debo minimizar las situaciones deplorables. Mi decisión debe ser tal que valga la pena repetirla. Sólo debería hacer las cosas que siento que podría repetir con placer. 128
  • 129. 11. TEORIA DE LA DECISION MAXIMIN:  Basado en la teoría de juegos, se selecciona la acción encontrando el pago mínimo sobre todos los estados posibles de la naturaleza y después encontrar el máximo de estos pagos mínimos.  Es válido cuando se considera que se está compitiendo contra un oponente racional y malévolo, como puede ser el caso de la competencia con alguna otra empresa; sin embargo si se considera que el oponente es la propia naturaleza resulta demasiado conservador en este contexto ya que la naturaleza no es un oponente malévolo y el tomador de decisiones no necesita enfocar su atención solo en el peor pago de cada acción.  En el caso de que la tabla de pagos sea de Costos o pérdidas, sería un criterio MINMAX 129
  • 130. 11. TEORIA DE LA DECISION MAXIMIN: Seleccionar la acción ak en la cual se tiene la ganancia maximin: l ak , r M ax M in l a j , i j i  Ejemplo: Sea el problema de decisión con tabla de ganancias: 1 2 Mínimo a1 0 2 0 a2 -1 4 Mínimo Máximo -1 La acción Maximin es a1 130
  • 131. 11. TEORIA DE LA DECISION MAXIMAX: Seleccionar la acción ak en la cual se tiene la ganancia maximax: l ak , r M ax M ax l a j , i j i  Ejemplo: En el problema anterior: 1 2 Máximo a1 0 2 2 Máximo a2 -1 4 4 Máximo La acción Maximax es a2 131
  • 132. 11. TEORIA DE LA DECISION MINIMAX: Construir la tabla de pérdida de oportunidades LP, y seleccionar la acción ak en la cual se tiene la pérdida de oportunidades minimax: LP ak , r M in M ax l a j , i j i  Ejemplo: En el problema anterior: L 1 2 LP 1 2 Máximo a1 0 2 a1 0 2 2 Máximo a2 -1 4 a2 1 0 1 Mínimo La acción Minimax es a2 132
  • 133. 11. TEORIA DE LA DECISION Ejemplo: De acuerdo con sus registros anteriores de ventas, un vendedor de revistas conoce que la demanda por cierta revista es solo de 5, 6, 7 u 8 ejemplares. Cada revista cuesta 1.2$ y se vende por 3.0$. a. Supongamos que el devuelve las revistas no vendidas al mismo valor que las adquirió. b. Si hay un descuento de 0.50 por cada revista devuelta. Deducir la decisión optimista, pesimista y de mínima pérdida de oportunidad 133
  • 134. 11. TEORIA DE LA DECISION Ejemplo: Una empresa debe seleccionar una de las 4 máquinas que dispone para fabricar Q unidades de determinado producto, del que se sabe que como mínimo se demandarán 10 unidades y como máximo 40 unidades. Si los costos fijos y variables por unidad producida de cada máquina son: Máquina Costo fijo Costo unitario 1 100 5 2 40 12 3 150 3 4 90 8 Qué máquina utilizará? (utilice los criterios) 134
  • 135. 11. TEORIA DE LA DECISION En este caso resulta bastante largo ( e innecesario) construir toda la matriz de pagos, pues se tienen 4 acciones posibles: a1: Lanzar la producción en la máquina 1 a2: Lanzar la producción en la máquina 2 a3: Lanzar la producción en la máquina 3 a4: Lanzar la producción en la máquina 4 Y se tienen 31 estados de la naturaleza posibles (cuánto producir) j: producir j unidades del producto; j=10, 11, …, 40 Así, podríamos utilizar la relajación contínua de estas variables, que se muestra en la figura siguiente (donde se puede analizar fácilmente si hay acciones dominadas o establecer la decisión por los criterios optimista, pesimista o de mínimo arrepentmento) 135
  • 136. 11. TEORIA DE LA DECISION $ a2 500 450 a4 400 Dominadas 350 por a1 a1 300 a3 250 200 15 20 25 30 Q 35 136
  • 137. 11. TEORIA DE LA DECISION $ 300 a1 280 a3 260 MAXIMIN 240 220 200 180 MAXIMAX 160 Q 15 20 25 30 35 137
  • 138. 11. TEORIA DE LA DECISION Decisión tomada con riesgo:  Observe que la categoría de problemas anteriores (es decir, los problemas con pura incertidumbre) resultan apropiados sólo para la toma de decisiones en la vida privada. No obstante, la persona pública (es decir, el gerente) tiene que tener cierto conocimiento de los estados de la naturaleza, para poder predecir las probabilidades de cada estado. De lo contrario no podrá tomar una buena decisión.  Siempre que un decisor tiene cierto conocimiento sobre los estados de la naturaleza puede asignar una probabilidad subjetiva a la ocurrencia de cada estado. Y cuando lo hace, el problema se clasifica como toma de decisiones bajo riesgo. 138
  • 139. 11. TEORIA DE LA DECISION Se tienen fundamentalmente dos criterios: CRITERIO DE LA MAXIMA VEROSIMILITUD  Este criterio se refiere al estado más probable de la naturaleza. El criterio de la máxima verosimilitud afirma que se debe identificar el estado más probable de la naturaleza (Aquel que tiene la probabilidad más grande), y para ese estado de la naturaleza se debe encontrar la acción con el máximo pago y por último se debe elegir esa acción.  Se debe elegir la acción ak para la cual (en el caso de ganancias): l ak , M ax l a j, r es el estado r r j mas probable 139
  • 140. 11. TEORIA DE LA DECISION CRITERIO DE BAYES  Se dispone de una distribución “a priori” de los estados de la naturaleza, se debe elegir la acción ak en la cual se maximiza el pago esperado. Es decir: * l ak Max E l aj, P E B I; j  Es decir se selecciona la acción que proporciona el mejor pago esperado. Por tanto tiene aplicación si es que la decisión debe tomarse algunas veces.  También puede aplicarse el criterio sobre la matriz de pérdida de oportunidades, y en ese caso se debe tomar la acción que minimice la pérdida esperada de oportunidad. 140
  • 141. 11. TEORIA DE LA DECISION En el ejemplo de la diapositiva 128, si las probabilidades de que hayan 1%, 3% o 5% de defectuosos del proveedor A son de 80%, 10% y 10%, respectivamente, se tiene lo siguiente: COSTO ADQUISICION A 300 COSTO ADQUISICION B 302 COSTO X DEFECTUOSO A 0.15 COSTO X DEFECTUOSO B 0.05 maxima ganancia TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS esperada ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5 -302.4 ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5 -302.8 minima pérdida de TABLA DE PERDIDA OPORT. 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS oportunidad esperada ADQUIRIR A PROVEEDOR A 0 1 3 0.4 ADQUIRIR A PROVEEDOR B 1 0 0 0.8 141
  • 142. 11. TEORIA DE LA DECISION PAGO ESPERADO CON INFORMACION PERFECTA:  PEIP = Pago promedio que puede anticiparse con el conocimiento de información perfecta acerca del estado de la naturaleza. * P E IP E l a, VALOR ESPERADO DE LA INFORMACION PERFECTA:  VEIP es la cantidad promedio que pierde por no tener información perfecta sobre que estado de la naturaleza ocurrirá.  Coincide con la pérdida esperada de oportunidad mínima.  Aunque no existe información 100% confiable este valor puede ser como una cota de la cantidad de dinero que el decisor estaría dispuesto a pagar por información. 142
  • 143. 11. TEORIA DE LA DECISION Para el caso en que los pagos son ganancias: * V E IP M in E l ak , l aj, j * M in E l ak , E l aj, j M in P E IP E l aj, j P E IP M ax E l aj, j P E IP - P E B I Para el caso en que los pagos son costos: V E IP P E B I - P E IP 143
  • 144. 11. TEORIA DE LA DECISION Para el ejemplo anterior: COSTO ADQUISICION A 300 PEBI -302.4 COSTO ADQUISICION B 302 PEIP -302 COSTO X DEFECTUOSO A 0.15 VEIP 0.4 COSTO X DEFECTUOSO B 0.05 maxima ganancia TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS esperada ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5 -302.4 ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5 -302.8 minima pérdida de TABLA DE PERDIDA OPORT. 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS oportunidad esperada ADQUIRIR A PROVEEDOR A 0 1 3 0.4 ADQUIRIR A PROVEEDOR B 1 0 0 0.8 probabilidades a priori 80% 10% 10% 144
  • 145. 11. TEORIA DE LA DECISION ARBOLES DE DECISION: • Los árboles de decisión son diagramas donde se presentan, en forma secuencial, las decisiones y los estados de la naturaleza. • Tienen dos tipos de nodos: - Nodos de decisión: - Nodos de eventos: • En cada una de las ramas que sales de los nodos evento se colocan las probabilidades de cada uno • Para cada nodo evento se calcula un pago esperado • En cada nodo de decisión se escoge la alternativa con el mejor pago esperado 145
  • 146. 11. TEORIA DE LA DECISION ARBOLES DE DECISION: • En resumen, los árboles de decisión proveen un método efectivo para la toma de decisiones debido a que: • - claramente plantean el problema para que todas las opciones sean analizadas. • - permiten analizar totalmente las posibles consecuencias de tomar una decisión. • - proveen un esquema para cuantificar el costo de un resultado y la probabilidad de que suceda. • - nos ayuda a realizar las mejores decisiones sobre la base de la información existente y de las mejores suposiciones. 146
  • 147. 11. TEORIA DE LA DECISION CASO: LITIGIO TELMOV, un operador de telefonía móvil, ha presentado una querella legal en contra de FONOMOVIL por prácticas comerciales monopolistas, pidiendo US.$ 1Millón por daños. En noviembre, TELMOV recibe una oferta de FONOMOVIL para arreglar la situación, en la que le ofrecen 350.000 dólares. El consejo de administración de TELMOV debe decidir si acepta o no la propuesta o continúa la querella. Los abogados creen que la probabilidad que TELMOV gane es de 2/3. Sin embargo, señalan que incluso ganando, la probabilidad de que el juez otorgue el 1 millón pedido es de 50%, ya que también existe la posibilidad de que otorgue sólo 500.000$. Los abogados han informado que sus honorarios entre noviembre y junio (mes en que se celebrará la audiencia) serán de 30.000$ y que los honorarios de representación en el juicio serán de 25.000$. El consejo de administración de TELMOV cree que hay una probabilidad de 60% de que FONOMOVIL haga una 2º oferta en junio, antes de empezar la audiencia. Si esto es así, se estima que la probabilidad de que el arreglo sea por 450.000$ es del 70% y del 30% que sea de 550.000$. Si FONOMOVIL no presenta esta segunda oferta en junio, TELMOV puede iniciar una negociación, conformándose, en ese caso, con unos 250.000$. 147
  • 148. 11. TEORIA DE LA DECISION CASO: LITIGIO Si esta empresa utiliza una estrategia que maximice su utilidad esperada, construya el árbol de decisión, ¿Cuál debe ser su decisión?, realice un análisis de sensibilidad DESARROLLO: Este es un problema de decisiones secuenciales que se puede resolver con un árbol de decisiones. Acciones y estados de la naturaleza son: A1: Aceptar la primera oferta en noviembre A2: No aceptar la primera oferta A3: Ir a juicio A4: iniciar una negociación A5: Aceptar la segunda oferta en junio A6: No aceptar la segunda oferta 1: FONOMOVIL no propone una segunda oferta 2: FONOMOVIL propone una segunda oferta 3: TELMOV gana el juicio 4: TELMOV pierde el juicio 5: el juez concede una indemnización de 1 millón de dólares 6: el juez concede una indemnización de 500.000 dólares 148
  • 149. 11. TEORIA DE LA DECISION CASO: LITIGIO INDEMNIZACION GANANDO EL JUICIO Indemnización pedida $ 1,000,000 Otra Indemnización posible $ 500,000 OFERTA DE FONOMOVIL Primera Oferta $ 350,000 Segunda Oferta 1 $ 450,000 Segunda Oferta 2 $ 550,000 NEGOCIACION PARA NO IR A JUICIO Por negociación $ 250,000 HONORARIOS Período noviembre – junio $ 30,000 durante el juicio: junio - $ 25,000 PROBABILIDADES Ganar juicio 66.67% Obtener 1 millón si gana el juicio 50.00% Segunda oferta en junio 60.00% Si hay 2º oferta que sea de 450,000 70.00% Si hay 2º oferta que sea de 550,000 30.00% 149
  • 150. 11. TEORIA DE LA DECISION CASO: LITIGIO (ARBOL) A1 FALSO 0 $ 350,000 350000 litigio ¿Aceptar 1º oferta? 448000 1 MILLON 50.0% 0.133333333 $ 1,000,000 945000 GANA 66.7% INDEMNIZACION 0 695000 500 MIL 50.0% 0.133333333 $ 500,000 445000 A3 VERDADERO ¿GANA JUICIO? -$ 25,000 445000 PIERDE 33.3% 0.133333333 0 -55000 NO 40.0% ¿IR A JUICIO? 0 445000 A4 FALSO 0 $ 250,000 220000 A2 VERDADERO Hay una 2º oferta -$ 30,000 448000 450 mil 70.0% 0.42 $ 450,000 420000 A5 VERDADERO monto 2º oferta 0 450000 550 mil 30.0% 0.18 $ 550,000 520000 SI 60.0% ¿Aceptar? 0 450000 1 MILLON 50.0% 0 $ 1,000,000 945000 GANA 66.7% INDEMNIZACION 0 695000 500 MIL 50.0% 0 $ 500,000 445000 A6 FALSO ¿GANA JUICIO? -$ 25,000 445000 PIERDE 33.3% 0 0 -55000 150
  • 151. 11. TEORIA DE LA DECISION CASO: LITIGIO (ARBOL) Los siguientes reportes se generan con la opción DECISION ANALYSIS: ESTADISTICAS: STATISTICS Mean 448000 Minimum -55000 Maximum 945000 Mode 420000 ¿Aceptar 1º oferta? Std Dev 260638.958 448000 Skewness -0.03061386 Kurtosis 3.61341588 1 MILLON 50.0% 0.133333333 $ 1,000,000 945000 GANA 66.7% INDEMNIZACION 0 695000 500 MIL 50.0% 0.133333333 $ 500,000 445000 A3 VERDADERO ¿GANA JUICIO? -$ 25,000 445000 PIERD 33.3% 0.133333333 E 0 -55000 NO 40.0% ¿IR A JUICIO? 0 445000 A2 VERDADERO Hay una 2º oferta -$ 30,000 448000 450 mil 70.0% 0.42 $ 450,000 420000 A5 VERDADERO monto 2º oferta 0 450000 550 mil 30.0% 0.18 $ 550,000 520000 SI 60.0% ¿Aceptar? 0 450000 151
  • 152. 11. TEORIA DE LA DECISION CASO: LITIGIO (SENSIBILIDAD) UTILIDAD ESPERADA DE LA MEJOR POLITICA EN FUNCION DEL MONTO DE LA PRIMERA OFERTA Y LA PROBABILIDAD DE GANAR EL JUICIO 2-Way Strategy Region of utilidad esperada 0.9 probabilidad de ganar juicio 0.8 0.7 0.6 1 : A1 0.5 2 : A2 0.4 0.3 0.2 0.1 200000 250000 300000 350000 400000 450000 500000 550000 600000 prim era oferta 152
  • 153. 11. TEORIA DE LA DECISION TOMA DE DECISIONES CON INFORMACION EXPERIMENTAL: • Los árboles de decisión hacen más fácil la inclusión de información nueva (o a posteriori), obtenida generalmente por un proceso de experimentación o de muestreo. En ese caso se debe hacer uso de la regla de Bayes para calcular las probabilidades a posteriori. • El árbol de decisión es una representación cronológica del proceso de decisión. • Se calculan las ganancias esperadas retrocediendo en el árbol, comenzando desde el extremo derecho. • En las ramas salientes de los nodos evento se deben asignar las probabilidades, según la regla de Bayes o la fórmula de la probabilidad total, según sea el caso. 153
  • 154. 11. TEORIA DE LA DECISION PROBLEMA DE DECISION: PRIMERA PARTE: Se tiene el siguiente problema de decisión concerniente a la producción de un nuevo producto, en el cuál se debe decidir si desarrollar o no el mismo, bajo los posibles escenarios de poca venta, venta media y mucha venta: Estados de la naturaleza Mucha venta Venta media Poca venta A(0,2) B (0,5) C (0,3) A1 (desarrollar) 3000 2000 -6000 A2 (no desarrollar) 0 0 0 Las probabilidades de los estados de la naturaleza (en paréntesis) representan los distintos grados que tiene el criterio del decisor (por ejemplo, un gerente) con respecto a la ocurrencia de cada estado. Estas evaluaciones subjetivas de la probabilidad son las probabilidades "a priori". ¿ Bajo el criterio de máxima verosimilitud que se elige ? ¿ Bajo el criterio de Bayes que se elige ? ¿Cuál es el VEIP ? 154
  • 155. 11. TEORIA DE LA DECISION SEGUNDA PARTE: Sin embargo, el gerente se siente algo reacio a tomar esta decisión sin mas información; por ello solicita la asistencia de una firma de investigación de mercado. Ahora nos enfrentamos a una nueva decisión. Es decir, con cuál firma de investigación de mercado debe consultar su problema de decisión. De esta manera es que el gerente debe tomar una decisión acerca de cuán "confiable" es la firma consultora. Analizando el desempeño previo de la consultora se ha desarrollado la siguiente matriz de confiabilidad: Qué sucedió realmente en el pasado A B C Lo que el consultor Ap 0,8 0,1 0,1 predijo Bp 0,1 0,9 0,2 Cp 0,1 0,0 0,7 Donde Ap: el consultor predice buen mercado, Bp: un mercado mediano, Cp: uno malo. Todas las Firmas de Investigación de Mercado llevan registros (es decir, conservan datos históricos) del desempeño alcanzado en relación con las predicciones anteriores que hubieren formulado. Estos registros los ponen a disposición de sus clientes sin cargo alguno. Para construir una matriz de confiabilidad debe tomar en consideración los "registros de desempeño" de la Firma de Investigación de Mercado 155
  • 156. 11. TEORIA DE LA DECISION Se conoce que el consultor cobra 500 dólares por la consultoría realizada. • Identificar las verosimiltudes P(Ap|A), P(Bp|A), P(Cp|A), P(Ap|B), P(Bp|B), P(Cp|B), P(Ap|C), P(Bp|C), P(Cp|C). • Hallar las probabilidades a posteriori P(A|Ap), P(A|Bp), P(A|Cp), P(B|Ap), P(B|Bp), P(B|Cp), P(C|Ap), P(C|Bp), P(C|Cp) • Dibuje el árbol de decisiones. Muchos casos de toma de decisiones gerenciales, como el de este ejemplo, involucran una secuencia de decisiones. En la siguiente lámina se observa el gráfico correspondiente al árbol de decisiones óptimas. 156
  • 157. TreePlan (Tryout Version) 0.667 A 2500 3000 2500 0.208 producir B 1500 0 1167 2000 1500 0.24 0.125 Ap C 1 -6500 0 1167 -6000 -6500 no producir -500 0 -500 0.038 A 2500 3000 2500 0.849 producir B 1500 0 634 2000 1500 0.53 0.113 contratar consultor Bp C 1 -6500 -500 501.1 0 634 -6000 -6500 no producir -500 0 -500 0.087 A 2500 3000 2500 0 producir B 1500 0 -5717 2000 1500 0.23 0.913 Cp C 1 2 -6500 501.1 0 -500 -6000 -6500 no producir -500 0 -500 0.2 A 3000 3000 3000 0.5 producir B 2000 0 -200 2000 2000 0.3 no contratarlo C 2 -6000 0 0 -6000 -6000 157 no producir 0 0 0
  • 158. 12. Decisiones con muestreo hipergeométrico y binomial  La incorporación de nueva información es beneficiosa para el proceso de toma de decisiones pues tiene por efecto principal disminuir la incertidumbre involucrada.  Generalmente, la nueva información se obtiene por “muestreo”, proceso por medio del cual se establecen las reglas que indican como se debe escoger los elementos de una población para ser objeto de estudio.  Esta nueva información se incorpora al proceso de toma de decisiones en forma de las probabilidades a posteriori.  El proceso de muestreo mas común involucra las distribuciones hipergeométrica y binomial. 158
  • 159. 12. Decisiones con muestreo hipergeométrico y binomial  El muestreo implica distribuciones hipergeométricas, pues implica situaciones como la de: “se extrae una muestra de tamaño n de una población de tamaño N de los cuales k son defectuosos”, entonces si X= número de artículos defectuosos en la muestra, X tiene distribución hipergeométrica k N k j n j p j N n  Pero, si se considera que las muestras son muy pequeñas comparadas con el tamaño de la población (o si el muestreo se hace con reposición), se puede decir que X tiene aproximadamente una distribución binomial con parámetros n, p=k/N n j n j p j p 1 p j 159
  • 160. 12. Decisiones con muestreo hipergeométrico y binomial  Un vendedor está ante la alternativa de comprar o no un lote de 80 bombillos. El tendrá una pérdida de 150 por cada bombillo defectuoso y obtendrá una ganancia de 50 por cada bombillo no defectuoso. La proporción de bombillos defectuosos en los lotes tiene la siguiente función de frecuencia: P( =0.1)=0.4, P( =0.2)=P( =0.3)=0.3. El fabricante permitirá al vendedor examinar cada bombillo por un valor de 35 no reembolsables y rechazar cualquier unidad defectuosa sin costo adicional alguno para el vendedor; cualquier unidad rechazada por el vendedor será sustituida por una unidad buena por el fabricante. En el caso de que el vendedor examine la muestra esta será de tamaño 2. ¿Cuál es la ganancia máxima que espera obtener el vendedor? ¿Cuál es su estrategia óptima?  Resolver utilizando muestreo hipergeométrico  Resolver utilizando muestreo binomial  Que pasaría si el costo de examinar cada bombillo es de 10? 160
  • 161. 12. Decisiones con muestreo hipergeométrico y binomial Con muestreo hipergeométrico:  A PRIORI: P( = z); donde (estado de la naturaleza) es la proporción de defectuosos en el lote z 0.1 0.2 0.3 P( = z) 0.4 0.3 0.3 161
  • 162. 12. Decisiones con muestreo hipergeométrico y binomial  VEROSIMILITUDES: P(x/ ); x = Número de artículos defectuosos en la muestra j 0 1 2 8 72 8 72 8 0 2 1 1 2 P(x=j / = 0.1) 0, 8089 0,1823 0, 0088 80 80 80 2 2 2 16 64 16 64 16 64 0 2 1 1 2 0 P(x=j / = 0.2) 0, 6380 0, 3241 0, 0380 80 80 80 2 2 2 24 56 24 56 24 56 0 2 1 1 2 0 P(x=j / = 0.3) 0, 4873 0, 4253 0, 0873 80 80 80 2 2 2 162
  • 163. 12. Decisiones con muestreo hipergeométrico y binomial  A POSTERIORI: P( /x) x j/ z z P z x j ; z 0.1, 0.2, 0.3 x j/ w w w 0.1, 0.2 , 0.3 z 0.1 0.2 0.3 P( = z / x = 0) 0,489374 0,289489 0,221137 P( = z / x = 1) 0,244897 0,326531 0,428571 P( = z / x = 2) 0,0861563 0,276918 0,636925 163
  • 164. 12. Decisiones con muestreo hipergeométrico y binomial  PROBABILIDADES TOTALES: P(x = j) P x j x j/ w w ; j 0, 1, 2 w 0.1, 0.2 , 0.3 j 0 1 2 P(x = j) 0,66114 0,297721 0,0411392 164
  • 165. 0.489374 2295 2400 2295 0.289489 Comprar 695 0 1124.1792 800 695 0.66114 0.221137 x=0 1 -905 0 1124.1792 -800 -905 No comprar -105 0 -105 0.244897 2495 2600 2495 0.326531 Comprar 895 0 601.120705 1000 895 0.297721 0.428571 Tomar muestra x=1 1 -705 -105 931.000392 0 601.120705 -600 -705 No comprar -105 0 -105 0.0861563 2695 2800 2695 0.276918 Comprar 1095 0 213.769314 1200 1095 0.0411392 0.636925 x=2 2 1 -505 960 0 213.769314 -400 -505 No comprar -105 0 -105 0.4 2400 2400 2400 0.3 Comprar 800 0 960 800 800 0.3 No tomar muestra 1 -800 0 960 -800 -800 165 No comprar 0 0 0
  • 166. 13. Decisiones con muestreo binomial USO DE LA DISTRIBUCION BETA: La distribución Beta ( , ), que tiene por función de densidad: 2 1 1 f z 1 z 1 z , 0 z 1 1  x, 1, 2 2  x, 2, 3  x, 2, 10 4  x, 10 , 2 4 1.75 1.5 1.5 3 3 1.25 1 1 2 2 0.75 0.5 1 1 0.5 0.25 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 1 0.2 0.4 0.6 0.8 0.2 0.4 0.6 0.8 1 Donde y son parámetros de forma. Y se usa comúnmente para medir proporciones. En nuestro caso es una buena distribución para modelizar la “proporción” de defectuosos en un lote. 166
  • 167. 13. Decisiones con muestreo binomial USO DE LA DISTRIBUCION BETA:  Suponemos que la distribución a priori de los estados de la naturaleza es Beta ( , )  Y si suponemos además que el número X de resultados que tienen cierta característica (por ejemplo defectuosos), de entre dos características posibles, sigue una distribución binomial (n,z), entonces se tiene por la fórmula de la probabilidad total (caso contínuo) que: p X j p X j z f z dz 1 n j n j 2 1 1 p X j z 1 z 1 z 1 z dz , 0 z 1 0 j 1 n 2 j 1 ! n j 1 ! 1 j 1 n 1 ! 167
  • 168. 13. Decisiones con muestreo binomial USO DE LA DISTRIBUCION BETA: Y por el teorema de Bayes (en su forma contínua diapositiva 87): p X j z f z f z X j = p X j n 2 j 1 n j 1 n 1 z 1 z ,0 z 1 j 1 Así la distribución a posteriori de es: BETA ( +j , +n-j) Distribución A priori: Beta + = Distribución A posteriori Beta Muestreo Binomial 168
  • 169. 13. Decisiones con muestreo binomial Ejemplo: Una empresa tiene una máquina que llena frascos de aceite. Sea la proporción de frascos mal llenados en un lote de producción. Un lote de producción consiste en 5000 frascos envasados, y el costo de llenar mal un frasco es de 4 u.m.. La empresa tiene la opción de contratar un experto que ajuste la máquina, a un costo de 300 más 2 por cada frasco mal envasado. En 20 lotes anteriores se observó el siguiente número de defectuosos: 25 63 130 279 232 76 71 68 107 388 177 141 73 386 88 138 130 62 14 170 El investigador supone que , sigue una distribución Beta(2,78), (COMPROBAR SI ESTA SUPOSICION DEL INVESTIGADOR ES VALIDA) La empresa tiene la posibilidad de examinar tres frascos para saber si ellos están bien o mal envasados antes de decidir si contratar o no al experto. 169
  • 170. 13. Decisiones con muestreo binomial  ¿Es razonable la suposición a priori de que sigue una distribución Beta(2,78) ?  Sin muestreo, ¿Cuál es la acción que debe tomarse? (contratar o no al experto)  Con muestreo, ¿Cuál es la acción que debe tomarse? 170
  • 171. 13. Decisiones con muestreo binomial  Es razonable la suposición a priori de que sigue una distribución (2,78) Utilizando la prueba de K-S: (comparar con los resultados de R) Número de Caso defectuosos Proporción i i/n Fo( i) i/n-Fo( i) 1 14 0.002781263 0.05 0.021 0.0293145 Máximo 2 25 0.004991033 0.1 0.06 0.0403766 3 62 0.01242886 0.15 0.258 0.107529 4 63 0.012510624 0.2 0.26 0.059919 5 68 0.01364011 0.25 0.293 0.04294 6 71 0.014283648 0.3 0.312 0.011691 p-value = 0.6375, 7 73 0.01450443 0.35 0.318 0.031897 8 76 0.015238493 0.4 0.339 0.060678 9 88 0.017549448 0.45 0.405 0.045352 Si es razonable la 10 107 0.021487621 0.5 0.508 0.00834 11 130 0.025918231 0.55 0.61 0.060343 distribución a priori 12 130 0.025984703 0.6 0.612 0.011747 13 138 0.027670404 0.65 0.646 0.00392 14 141 0.028105425 0.7 0.655 0.045452 15 170 0.033918451 0.75 0.753 0.002913 16 177 0.035313377 0.8 0.773 0.027339 17 232 0.046322345 0.85 0.886 0.03589 18 279 0.055844949 0.9 0.939 0.039436 19 386 0.077275605 0.95 0.987 0.036744 171 20 388 0.077596173 1 0.987 0.012948
  • 172. 13. Decisiones con muestreo binomial Sin muestreo, ¿Cuál es la acción que debe tomarse? • Como: E( )=0.025, y la función de pagos es: 300 10000 Si j 1 l aj, 20000 Si j 2 • Siendo a1= Contratar el experto, a2= No contratar el experto, Acción Costo esperado a1 300 + 10000 E( ) = 550 óptimo a2 20000 E( ) = 500 172
  • 173. 13. Decisiones con muestreo binomial Con muestreo, ¿Cuál es la acción que debe tomarse? • Las probabilidades de X son (evaluadas con probabilidad total): j=0 j=1 j=2 j=3 P(X = j) 0.927733 0.0695799 0.00264228 0.0000451671 • Y la distribución a posteriori de es Beta(2+j, 81-j), luego: 2 j E X j 83 • Y la tabla de costos esperados es ahora: Costo esperado (a posteriori) Acción j=0 j=1 j=2 j=3 Mínimo a1 540.964 661.446 781.928 902.41 a2 481.928 722.892 963.855 1204.82 173
  • 174. 13. Decisiones con muestreo binomial Con muestreo, ¿Cuál es la acción que debe tomarse? • Si al menos uno de los frascos de la muestra resulta mal envasado, la empresa debe contratar un experto para ajustar la máquina, mientras que si en la muestra no aparecen frascos mal envasados, no se debe contratar experto alguno 174
  • 175. 14. Uso de la distribución normal • Muchas veces se tienen distribuciones normales, o por su defecto puede aproximarse asintóticamente por una distribución normal, por ejemplo si la población es binomial (esto es, solo tiene dos características distinguibles: defectuoso - no defectuoso, a tiempo – con retraso, etc.). Sea Xi la variable: Xi # d e elem en t os en los cu a les se p r esen t a la ca r a ct er íst ica 1 en la ob ser v a ción i • Dada la muestra aleatoria: X1, X2, …, Xn, según el teorema del Límite Central, se tiene que: 2 X n N , n 175
  • 176. 14. Uso de la distribución normal • A priori: Si la distribución a priori del estado = de la naturaleza es: 2 N 0 , 0 • Y sea y = x1, x2, …, xn una muestra aleatoria de una población con distribución N , 2 , así se tiene: • Verosimilitud: n n/2 n 1 2 p y 2 ex p 2 xi 2 i 1 • A posteriori: p y p p y p p y p y p y p d 176
  • 177. 14. Uso de la distribución normal i.i.d. 2 Como: x i  N , n n/2 n 1 2 f y = 2 exp 2 xi 2 i 1 1/ 2 1 1 2 De la distribución a priori: f = 2 0 exp 2 0 2 f y f f y f La dist. A posteriori es: f y = = f y f y f d El numerador: n n 1 /2 n 1 1 2 1 2 f y f = 2 0 exp 2 xi 2 0 2 i 1 2 0 n n 2 2 2 Como: xi = xi x + n x i 1 i 1 n 2 1 2 1 2 1 2 Y además: 2 x + 2 0 = 2 + 2 1 2 x 0 0 0 n 2 2 n/ x + 1/ 0 0 1 2 Con = 2 2 ,; y, = 2 2 n/ + 1/ 0 n/ + 1/ 0 177
  • 178. 14. Uso de la distribución normal Así, la expresión en llaves del numerador de la fórmula de Bayes es: n 1 2 1 2 1 2 2 xi 2 0 = 2 h y 2 i 1 2 0 2 n 1 2 1 2 Siendo: h y = 2 xi x + 2 1 2 x 0 2 i 1 2 0 n 1/ 2 1 1 2 Y de esta manera: f y f = f y 2 exp 2 2 n/2 n 1 Donde f y = 2 0 exp h y f y f 1/ 2 1 1 2 Y así: f y = = 2 exp 2 f y 2 178
  • 179. 14. Uso de la distribución normal • Así: 1/ 2 1 1 2 p y 2 exp 2 2 • Es decir, la distribución a posteriori de es: 2 y N , 2 2 n/ x 1/ 0 0 2 1 C on 2 2 ; 2 2 n/ 1/ 0 n/ 1/ 0 • Así cuando la distribución a priori del estado de la naturaleza es normal, y el muestreo se realiza sobre una población con distribución normal, la distribución a posteriori de es normal también. 179
  • 180. 14. Uso de la distribución normal Consideremos una empresa que piensa modernizar la maquinaria que tiene. Actualmente dispone de la oferta de un fabricante Chino, que ofrece una maquinaria que produce regularmente cierta cantidad de unidades defectuosas, la tabla siguiente muestra los costos diarios para los dos tipos de maquinaria. Un trabajo de producción en la maquinaria consiste en la elaboración de lotes de 1000 unidades, y el costo de una unidad defectuosa es de 3$. La empresa tiene la opción de contratar una cobertura especial, por 200$ por lote producido, por medio de la cual las unidades defectuosas son reemplazadas. El fabricante permitió a la empresa realizar una corrida de producción de 20 lotes, con el siguiente número de unidades defectuosas producidas (suponer normalidad del número de unidades defectuosas producidas, con la varianza estimada a partir de los datos y la media desconocida): 17 40 55 34 26 40 46 35 46 51 44 37 32 23 33 38 19 44 0 69 La empresa consiguió información de 12 empresas que usaron el mismo tipo de maquinaria que elaboraron 10 lotes, cada uno de 1000 partes. Sea Xi (i = 1,2, …, 10) el número de partes defectuosas del i-ésimo lote. Determinar el costo mínimo que espera conseguir la empresa, considerando que la distribución del número de partes defectuosas producidas por la máquina ofrecida sigue una distribución normal con media y varianza 25, y que en experiencias de producciones anteriores el número de piezas defectuosas por lote fueron: 180
  • 181. 14. Uso de la distribución normal Mes Defectuosos por lote 1 32 22 37 48 47 52 13 33 46 24 2 41 20 43 43 46 53 24 38 42 34 3 42 28 33 28 46 35 56 31 21 20 4 38 29 28 37 46 28 40 38 29 43 5 56 37 52 21 20 21 36 20 18 15 6 46 43 28 36 31 36 36 28 28 23 7 46 40 61 45 26 42 42 39 43 42 8 37 42 30 27 32 40 34 27 39 20 9 48 27 55 50 42 32 30 29 51 40 10 35 27 29 33 18 35 48 32 30 30 11 30 44 48 25 43 25 46 32 44 33 12 30 34 25 25 44 31 55 45 37 39 181
  • 182. 14. Uso de la distribución normal •Obtener los promedios muestrales de unidades defectuosas por cada mes y establecer una distribución a priori normal para el promedio de unidades defectuosas entregadas. •Establecer la distribución a posteriori de . •Calcular los costos esperados sin la contratación de la cobertura y con la contratación de la cobertura. 182
  • 183. 15. Tamaño óptimo de la muestra •El muestreo cumple un importante papel en la toma de decisiones •Se busca determinar el tamaño óptimo de la muestra N. •A cada muestra se asocia un valor crítico c, el cual indica que si hay en la muestra por lo menos c elementos que poseen cierta característica, se adopta una acción, y otra acción sino. Cuando no se toma una muestra se considera N= c= 0. •Para determinar N se calcula el pago esperado y el valor crítico para un tamaño n de la muestra, luego el costo del muestreo, se le resta a este pago (si indica ganancia). Este procedimiento se hace para valores de n = 0, 1, 2, 3, … El tamaño de la muestra que da lugar al mejor pago esperado total es el tamaño óptimo N buscado. 183
  • 184. 15. Tamaño óptimo de la muestra Ejemplo: El dueño de un almacén está considerando la compra de 50 focos a un costo unitario de 9$ para venderlos a un precio de 11 $ por unidad; cuando un bombillo sale defectuoso el dueño pierde lo que pagó por él. Se conoce (por lo sucedido con lotes anteriores) que el 10% o el 30% de los bombillos es defectuoso con frecuencias de 0.8 y 0.2 respectivamente. Con el fin de adoptar una decisión el dueño puede inspeccionar cada foco a un costo de 0.30. Se desea conocer cuál es el tamaño de la muestra que maximiza su ganancia esperada. Cuando el dueño saca una muestra de tamaño n, hay la posibilidad de obtener 0, 1, …, n focos defectuosos. En base al resultado decide a1: comprar el lote, a2: no comprarlo. El número de focos defectuosos tiene aprox. una distribución binomial (n, ) siendo la proporción de defectuosos en el lote. Para establecer el tamaño óptimo de la muestra que debe tomar el dueño del almacén se encuentra el pago esperado con información muestral cuando se toman muestras de tamaño 2, 3, 4, ..., para lo cual se pueden usar árboles o matrices estocásticas. Finalmente se tabulan los resultados de los pagos esperados, los valores críticos, los costos del muestreo y las ganancias resultantes para escoger entre estas la máxima y seleccionar así el tamaño muestral óptimo. 184
  • 185. TreePlan (Tryout Version) 0.8686 45 n=2 comprar lote 0 30.546 45 0.1314 45 0.746 x=0 -65 1 -65 -65 0 30.546 no comprar lote 0 0 0 0.6316 45 comprar lote 45 45 0 4.476 0.3684 0.228 tomar muestra (n=2) x=1 -65 1 -65 -65 23.807844 0 4.476 no comprar lote 0 0 0 0.3077 45 comprar lote 45 45 0 -31.153 0.6923 0.026 x=2 -65 1 2 -65 -65 23.807844 0 0 no comprar lote 0 0 0 0.8 45 comprar lote 45 45 0 23 0.2 no tomar -65 1 -65 -65 0 23 no comprar lote 0 185
  • 186. 15. Tamaño óptimo de la muestra Tabla de información para hallar el tamaño muestral óptimo Tamaño de la Valor crítico Ganancia Costo de la Ganancia total muestra esperada muestra 0 0 23.00 0 23.00 1 1 23.30 0.30 23.00 2 2 23.81 0.60 23.21 3 2 24.80 0.90 23.90 4 2 25.65 1.20 24.45 5 2 26.20 1.50 24.70 6 2 26.43 1.80 24.63 7 3 26.66 2.10 24.56 Ganancia esperada Optima Tamaño óptimo 186
  • 187. 16. Procesos de decisión Markovianos VER DESARROLLO EN CLASE 187