• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Clase 1 Marco Estrategico Cadena De Suministros
 

Clase 1 Marco Estrategico Cadena De Suministros

on

  • 5,875 views

 

Statistics

Views

Total Views
5,875
Views on SlideShare
5,837
Embed Views
38

Actions

Likes
0
Downloads
126
Comments
0

3 Embeds 38

http://www.slideshare.net 36
http://webcache.googleusercontent.com 1
http://blog.espol.edu.ec 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Clase 1 Marco Estrategico Cadena De Suministros Clase 1 Marco Estrategico Cadena De Suministros Presentation Transcript

    • ESCUELA SUPERIOR POLITECNICA DEL LITORAL  INGENIERIA EN LOGISTICA Y TRANSPORTE CURSO: INVESTIGACION DE OPERACIONES II   I TERMINO 2008-2009
    • 1. Introducción: La logística y la estadística
      • ¿Qué es la Investigación de Operaciones (IO)?
      • La IO consiste en el uso de métodos analíticos avanzados que ayudan en la toma de decisiones.
      • Estos métodos analíticos incluyen:
      • Optimización: encontrar la mejor decisión posible de entre un conjunto de alternativas.
      • Simulación: imitación de la realidad (comportamientos, materiales, ideas, …) que ahorra tiempo y costos.
      • Probabilidad y estadística: ayuda a resumir / analizar información, medir riesgos, realizar predicciones, etc.
      Intuición Metodología formal Sentido común Modelo matemático INVESTIGACION DE OPERACIONES I (LP, MIP) Vs. INVESTIGACION DE OPERACIONES II
    • 1. Introducción: La logística y la estadística
      • DEFINICIONES, USOS:
      • La Estadística, es la rama de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como la toma de decisiones.
      • Nos permite obtener información referida a grandes grupos de individuos conociendo los datos de sólo unos pocos.
      • Permite describir con exactitud los valores de datos económicos, políticos, sociales, psicológicos, biológicos y físicos, y sirve como herramienta para relacionar y analizar dichos datos.
      • La Estadística responde a las necesidades del desarrollo científico y tecnológico de la sociedad
    • 1. Introducción: La logística y la estadística
      • APLICACIONES:
      • Las técnicas de Investigación de Mercados permiten saber si un producto cualquiera será bien acogido en el mercado antes de su salida a este, o bien medir la audiencia en Televisión y Radio.
      • El Control de Calidad permite medir las características de la calidad de un producto, compararlas con ciertos requisitos y tomar decisiones correctivas si hay diferencias entre el funcionamiento real y el esperado.
      • Análisis de confiabilidad, cálculo actuarial, bioestadística, Series de tiempo, etc.
      • En técnicas de decisión, permite la construcción de los denominados Árboles de decisión, una técnica muy usada para tomar decisiones en ambientes de incertidumbre
    • 1. Introducción: La logística y la estadística
      • ESTADISTICA = MEDIDA DE LO DESCONOCIDO
      • La estadística está asociada a la medición de la Incertidumbre
      • En logística la incertidumbre está presente de muchas formas: en la demanda de los artículos que están en el inventario, en los tiempos de entrega de los pedidos, en los costos de adquisición de la materia prima, en el costo del dinero, en la eficiencia de los empleados.
      • Generalmente ante la incertidumbre sobre el comportamiento futuro de una variable se deben aumentar las medidas de protección de aquello que pueda resultar afectado por los cambios imprevisibles de esta variable. Por ejemplo en la gestión de inventarios, el responsable logístico deberá aumentar las existencias a medida que la demanda se hace mas imprevisible. En otras palabras, la incertidumbre se paga, ¡es un coste!, y por tanto debe ser bien investigada y medida.
    • 1. Introducción: La logística y la estadística
      • Específicamente la Gestión de la Cadena de Suministro (SCM – Supply Chain Management) tiene como objetivo final la entrega de un producto a un cliente. Esto quiere decir, que la cadena de suministro incluye las actividades asociadas desde la obtención de materiales para la transformación del producto, hasta su colocación en el mercado.
      • El flujo en la cadena no solo es de productos, también es de información . Y es en el tratamiento de la información en donde es importante la estadística (y los modelos estadísticos de toma de decisión)
    • 1. Introducción: La logística y la estadística Todos los elementos objetos de estudio Subconjunto de la población PARAMETROS ESTIMADORES MUESTRA POBLACION Estadística descriptiva Estadística inferencial Estadística descriptiva
      • Las técnicas estadísticas básicas suelen clasificarse de acuerdo a su naturaleza en:
      • Estadística descriptiva, y
      • Estadística inferencial.
    • 2. Descripción de datos: Escalas de medida
      • El primer paso para poder hacer cualquier análisis estadístico es la obtención de la data . El proceso estadístico por medio del cual se toma datos de una población se denomina muestreo, el conjunto de datos obtenido se denomina muestra .
      • La data está conformada por las mediciones de características de los elementos de la población, dichas características se denominan variables .
      • Las variables difieren en "qué tan bien" se pueden medir, ¿cuánta información medible puede proporcionar su escala de medida?
      • Específicamente las variables son clasificadas como:
      • (a) nominales, (b) ordinales, (c) de escala
    • 2. Descripción de datos: Escalas de medida
      • (a) Nominal : se utilizan nombres para establecer categorías
      • Ejemplos: género, la raza, el color, la ciudad, tipo de artículo de inventario, etc.
    • 2. Descripción de datos: Escalas de medida
      • (b) Ordinales : nos permiten ordenar los artículos que medimos en términos del que tiene menos y el que tiene más de la calidad representada por la variable
      • Ejemplos: nivel socio-económico, rango, etc.
    • 2. Descripción de datos: Escalas de medida
      • (c) De escala: no sólo nos permiten ordenar los artículos que son medidos, sino también cuantificar y comparar los tamaños de diferencias entre ellos. Ofrecen un punto de cero absoluto identificable, así permiten las declaraciones como las de que “x es dos veces más de y”.
      • Ejemplos: temperatura, peso, estatura, ventas, etc.
    • 2. Descripción de datos: Escalas de medida
      • Complejidad: la complejidad aumenta con cada una de las escalas de medición, desde la simpleza de la escala nominal hasta el refinamiento de la escala de razón. El tipo de técnicas estadísticas que se puede emplear en cada escala de medida es diferente (por ejemplo en pruebas de hipótesis)
      Nominal Ordinal Escala Pruebas No paramétricas Pruebas Paramétricas
    • 2. Descripción de datos: base de datos
      • Creación de la base de datos electrónica
      • El software estadístico especializado (SPSS, SAS, S-PLUS, R, MINITAB, STATISTICA, etc.) requiere un ordenamiento del archivo de datos a analizar. Este ordenamiento está referido a filas y a columnas
      • Cuando hablamos de casos nos referimos a c/u de los registros obtenidos al investigar, muestrear, entrevistar, etc.
      • Con variables indicamos a las características que pueden tener estos datos
    • 2. Descripción de datos: base de datos CASOS: si se usa una hoja electrónica generalmente se los ubica en filas
    • 2. Descripción de datos: base de datos VARIABLES: en columnas
    • 2. Descripción de datos: base de datos
      • PROCESAMIENTO EN SPSS:
      • El editor de datos tiene dos vistas diferentes: vista de datos y vista de variables. La primera tiene una estructura similar a la de una hoja de cálculo (Excel), y se usa para introducir los datos que se quieren analizar. El SPSS maneja los datos en términos de variables, cada una de las cuales corresponde a una columna de la pantalla. Esto quiere decir que si queremos introducir unos datos, cada variable debe ir en una columna.
      • Al introducir los datos en el visor de datos, podemos pensar en que estamos rellenando una “encuesta”: cada línea horizontal de la cuadrícula sería un “encuestado" (caso), al que le corresponde un valor de cada una de las variables que intervienen en el problema (columnas).
    • 2. Descripción de datos: base de datos
      • Entreviste a la totalidad de sus compañeros de clase y para cada una de las variables que se presentan a continuación construya la boleta de encuesta, defina las escalas de medición de cada una de ellas, y la base de datos electrónica.
      • Variables a medir.
      • Género del entrevistado
      • Edad
      • Ingresos mensuales Promedio
      • Estado civil
      • Posee vehículo
      • Periódico preferido para leer noticias
    • 2. Descripción de datos: medidas
      • Medidas numéricas:
      • De tendencia central: Permiten describir la región “media” hacia adonde se agrupan los datos
      • Probablemente la estadística descriptiva mas usada es la media. La media es una medida muy informativa de la tendencia “central” de la variable si se reporta con sus intervalos de confianza. Otras son: la moda, la mediana.
      • De dispersión: Son una medida de que tan dispersos están los datos (que tan lejanos están entre ellos).
      • Las mas usadas son: desviación típica, varianza, coeficiente de variación, rango.
    • 2. Descripción de datos: medidas
      • Media: (  o ) mas usada
      • Desviación típica: (  o S ) depende de la magnitud de la variable, no puede tener la misma medida de incertidumbre la venta de un producto cuya media sea de 10 unidades mensuales que otro cuya venta media sea de 10.000
      • Coeficiente de variación:  /  , Que tan predecible es una variable en el futuro. Ver el ejemplo siguiente (demanda en la cadena de abastecimiento).
    • 2. Descripción de datos: medidas
      • ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
      • Se tienen los siguientes datos referidos a la venta mensual que hace un minorista de dos productos A, B en un año:
      • Podría suponerse que la incertidumbre es menor para el producto A (si se observa la desviación típica). Sin embargo en el producto A la variabilidad representa el 85.1% sobre la media, mientras que en B es el 50.9%, por lo que en realidad la venta del producto A tiene mayor incertidumbre que la de B
      • Si agregamos la venta de los dos productos:
    • 2. Descripción de datos: medidas
      • ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
      • Algunas concusiones que se pueden observar de este caso simple:
      • El coeficiente de variación es mas sensible para detectar la variabilidad de una serie de datos
      • Cuánto menor es la venta de un producto, suele ser mayor su incertidumbre ( y por tanto proporcionalmente requerirán más inventario)
      • Cuando se agregan datos, la incertidumbre del total agregado disminuye (por tanto es mas fácil pronosticar sobre la demanda de grupos de productos)
    • 2. Descripción de datos: gráficas
      • DESCRIPCION GRAFICA
      • ¡ Una imagen vale más que mil palabras !
      • Un aspecto importante de la "descripción" de una variable es la forma de su distribución, que le dice la frecuencia de valores de rangos diferentes de la variable. Típicamente, un investigador está interesado en qué la distribución pueda aproximarse bien por la distribución normal
      • HISTOGRAMAS 2D, 3D: representación gráfica de la distribución de frecuencia de la(s) variable(s) seleccionada(s)
      • Otros gráficos
    • 2. Descripción de datos: gráficas
    • 2. Descripción de datos: gráficas
      • ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
      • (... continuación)
      • Se pide analizar la siguiente tabla y entender el concepto de “efecto látigo), para ello leer el documento EFECTO LATIGO. DOC
      • Los datos son los siguientes:
    • 3. Control de Inventarios
      • VER DESARROLLO EN CLASE.
    • 4. Bayes, Odds y Razón de verosimilitud
      • Experimento aleatorio: Un experimento en el cual el resultado es incierto, pero se conoce el conjunto de posibles resultados del mismo (denominado espacio muestral,  )
      • Evento: cualquier subconjunto del espacio muestral. Y se denomina evento elemental a cualquier evento formado por un solo elemento.
      • Si el experimento aleatorio se realiza n veces, en las mismas condiciones, la frecuencia con la que un evento A ocurre es el número de veces que el experimento aleatorio resulta en A.
      • La frecuencia relativa de A es la frecuencia con la que ocurre A sobre el número total de repeticiones.
    • 4. Bayes, Odds y Razón de verosimilitud
      • PROBABILIDAD CONDICIONAL:
      • Def: Dados dos eventos A, B se define la probabilidad condicional de A dado B como:
      Probabilidad Condicional e independencia: INDEPENDENCIA: Def: Dados dos eventos A, B se dice que los dos eventos son independientes si
    • 4. Bayes, Odds y Razón de verosimilitud
      • ¿La evaluación de la prob. de A cambia si tenemos conocimiento de la ocurrencia de B?
      • Def: Los eventos A, B se dicen independientes si:
      • P (A/B)= P (A)
      • P (B/A)= P (B)
      • Obs: (1) A y B son independientes ssi:
      • P (A  B)= P (A)P(B)
      • (2) A 1 , A 2 , …, A n son independientes si para cualquier subconjunto de eventos A (1) , A (2) , …, A (k) :
    • 4. Bayes, Odds y Razón de verosimilitud
      • PARTICIONES:
      • Def: Dado un e.m.  se dice que los eventos B 1, B 2, …, B k forman una partición si:
      • 1. B 1  B 2  …  B k= 
      • 2. Bi  Bj =  ; i  j
      Regla de Bayes: PROBABILIDAD TOTAL: TEOREMA DE BAYES:
    • 4. Bayes, Odds y Razón de verosimilitud Predictor o evidencia Verosimilitudes Prob. A priori Prob. posterior P(A)=verosimilitud marginal TEOREMA DE BAYES:
    • 4. Bayes, Odds y Razón de verosimilitud TEOREMA DE BAYES: Proporciona una regla matemática que explica cómo uno debe cambiar sus creencias teniendo en cuenta nueva evidencia. Es decir permite que los investigadores combinen nuevos datos con su conocimiento o experiencia existente. Un ejemplo didáctico es imaginarse que un recién nacido observa su primera puesta del sol, y que el se pregunta si el sol saldrá otra vez o no. Lo natural será que asigne probabilidades a priori iguales a ambos resultados posibles, lo cual representa colocando un bloque blanco y uno negro en un bolso. El día siguiente, cuando ve que sale el sol, el niño coloca otro bloque blanco en el bolso. La probabilidad que un bloque extraído aleatoriamente del bolso sea blanco (es decir, el grado de creencia del niño en que el sol saldrá en todos los días futuros) ha cambiado de 1/2 a 2/3. Después de la salida del sol el día siguiente, el niño agrega otro bloque blanco, y la probabilidad (y por tanto el grado de creencia) pasa de 2/3 a 3/4. Y así sucesivamente. Gradualmente, la creencia inicial de que es tan probable de que el sol salga o no salga cada mañana se modifica para convertirse en una casi-certeza de que el sol siempre se levantará.
    • 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Una chica generalmente prefiere usar pantalón para ir a la Universidad, y falda si va a una fiesta. Es mas, según la frecuencia con que lo hace, se puede asegurar que: P(pantalón/va a la U)=0.8 P(falda/va a una fiesta)=0.9 Los viernes en la tarde esta chica sale a la U con probabilidad p (y a una fiesta con probabilidad 1– p ), el valor de p podría ser asignado subjetivamente por un experto (alguien que mira a la chica) o de acuerdo a la frecuencia con la que va a la universidad los viernes (asignación frecuentista de la probabilidad)
    • 4. Bayes, Odds y Razón de verosimilitud
      • Ejemplo:
      • Predictor (evidencia):
      • (1): Falda
      • (2): Pantalón
      • Prob. a priori:
      • Prob. Posterior:
      • P (va a F/pantalón) = 1- P (va a la U/pantalón)
      • P (va a la U/falda)=1- P (va a F/falda)
      P (va a la U)= p P (va a F) = 1- p
    • 4. Bayes, Odds y Razón de verosimilitud
      • Por ejemplo, si la chica los viernes va con tanta frecuencia a la Universidad que a una fiesta:
      • p =0.5
      • La evidencia va a aumentar nuestra creencia de que va a la Universidad
      • O sea que es menos probable que la chica use pantalón si va a la U que use falda si va a una fiesta (0.8<0.9), pero en cambio es más probable que vaya a la U dado que sale con pantalón que vaya a una fiesta si es que sale con falda (0.88>0.82).
      • ¿Paradoja?:
    • 4. Bayes, Odds y Razón de verosimilitud
      • La relación entre las probabilidades a posteriori p* y p** en función de la probabilidad a priori p se observa en el siguiente gráfico.
    • 4. Bayes, Odds y Razón de verosimilitud
      • ¿Paradoja?:
      • No, lo que pasa es que no se han analizado los falsos positivos (falsos negativos)
      • Para esto se definen los odds (que tan probable es un evento frente a otro):
      Odds Posterior Odds Apriori Razón de verosimiltud: L.R Obs: si A es independiente con B i y B j : LR=1 La información de LR es que es una medida de la información contenida exclusivamente en los datos, generalmente se aplica cuando B i y B j son complementarios, por ejemplo SANO y ENFERMO, FUNCIONANDO Y DAÑADA, ETC.
    • 4. Bayes, Odds y Razón de verosimilitud
      • En el ejemplo:
      • Es decir el predictor Pantalón es más verosímil que falda !!
      • Por ejemplo con p=1/2:
      • Con pantalón es 8 veces más probable acertar con la predicción que va a la Universidad,
      • Con falda es 4.5 veces más probable acertar con la predicción que va a fiesta
      Odds : (razón??): Indicador de cuánto mas probable es la ocurrencia de un evento frente a otro
    • 4. Bayes, Odds y Razón de verosimilitud
      • Ejemplo:
      • Supongamos que la incidencia de una cierta enfermedad en una población es de 0.001. Una prueba de diagnóstico para esta enfermedad tiene una tasa de falsos positivos de 0.05 y una tasa de falsos negativos de 0.01 (es decir un 5% de las pruebas de personas no enfermas indicarán la presencia de la enfermedad, mientras que el 1% de las pruebas en gente enferma no detectarán la presencia de la enfermedad.
      • a) Si una persona se hace la prueba, y el test da positivo, cuál es la probabilidad de que realmente esté enferma?
      • b) Si una persona se hace la prueba, y el test da negativo, cuál es la probabilidad de que realmente esté sana?
    • 4. Bayes, Odds y Razón de verosimilitud
      • En las aplicaciones la incertidumbre es común, y no es la excepción. Por ejemplo en el diagnóstico médico: dado que el paciente presenta unos síntomas, cuál de las enfermedades posibles padece?
      • Los hechos o datos no se conocen con exactitud. Puede o no estar seguro que tuvo fiebre.
      • El conocimiento no es determinista, las relaciones entre enfermedad y síntomas no son exactas.
      • Estas mismas características se pueden observar en otras aplicaciones:
      • Control de Calidad
      • Confiabilidad
      • Sistemas expertos
    • 4. Bayes, Odds y Razón de verosimilitud
      • Modelos Bayesianos (un ejemplo)
      • Se considera el envío de N artículos manufacturados de un lote de producción. Un número desconocido N  de estos son defectuosos. Es muy costoso examinar todos los artículos, por lo cual para obtener información sobre la calidad del lote, se obtiene una muestra de n objetos sin reemplazo para ser inspeccionados. El dato observado es el número de artículos defectuosos en la muestra.
      •  Es la proporción de defectuosos en la muestra
      • N  es el parámetro (desconocido), y en principio puede tomar cualquier valor de 0 a N , así, aunque el e.m. esté completamente definido no se puede especificar la estructura de probabilidad completamente, sin embargo se puede determinar una familia {H( N  , N , n )} de distribuciones de probabilidad para la variable aleatoria:
      • X = Número de defectuosos en la muestra
    • 4. Bayes, Odds y Razón de verosimilitud
      • Modelos Bayesianos (un ejemplo)
      • X = Número de defectuosos en la muestra
      • En esta discusión: N  es el parámetro,
      • Posibles valores de  : {0, 1/N, 2/N,…, 1}
      • Aquí asumimos que no hay más información disponible acerca del verdadero valor del parámetro que la proporcionada por los datos. Sin embargo hay situaciones en las cuales se puede agregar algo mas: vg es posible que en el pasado hemos tenido muchos envíos de tamaño N. Si los clientes nos proveen de registros precisos sobre el número de defectuosos que han recibido, podemos construir una distribución de frecuencias para la proporción de defectuosos pasados. Así se puede pensar en el valor de  como en la realización de una v.a. 
    • 5. Variables Aleatorias
      • Def.- Dado un e.m.  , se denomina variable aleatoria (v.a.) a cualquier función:
      • Las v.a. tienden a hacer “olvidar” el e.m.
      • DISTRIBUCIONES DE PROBABILIDAD:
      • Def.- Dada la v.a. X, se denomina función de distribución a la función:
    • 5. Variables Aleatorias
      • VARIABLES ALEATORIAS DISCRETAS:
      • Una v.a. es discreta si su rango es un conjunto finito o infinito numerable.
      • Provienen de procesos de “contar”
      • VARIABLES ALEATORIAS CONTINUAS:
      • Una v.a. es contínua si F(x) es una función contínua
      • Provienen de procesos de “medir”
    • 5. Variables Aleatorias
      • Función de probabilidad p ( x ) :
      • VARIABLES ALEATORIAS DISCRETAS:
      • p ( x )=P( X=x )
      • Función de densidad f ( x ) :
      • VARIABLES ALEATORIAS CONTINUAS:
      f ( x ) P ( a  X  b ) a b
    • 5. Variables Aleatorias
      • VARIABLES ALEATORIAS DISCRETAS:
      • VARIABLES ALEATORIAS CONTINUAS:
    • 5. Variables Aleatorias
      • Esperanza de una V.A. X:
      • Esperanza de una función g de la V.A. X:
      • Experimento binomial:
      • Muchas variables aleatorias discretas están basadas en un experimento (denominado experimento binomial) que satisface las siguientes condiciones:
      • El experimento consiste en una secuencia de n intentos, donde n se fija antes del experimento.
      • Los intentos son idénticos, y cada uno de ellos puede resultar en dos posibles resultados, que se denotan por éxito (E) o fracaso (F) (p(E)+p(F)=1).
      • Los intentos son independientes, por lo que el resultado de cualquier intento en particular no influye sobre el resultado de otro intento.
      • La probabilidad de éxito es constante de un intento a otro, y se representa por p .
      6. Distribuciones Distribuciones discretas más importantes
      • Bernoulli:
      • Ejemplo típico: lanzamiento de una moneda
      • Binomial: Deben cumplirse las características de un experimento binomial
      6. Distribuciones Distribuciones discretas más importantes
      • Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de preguntas bien contestadas por un estudiante que responde al azar un examen tipo selección múltiple que consiste de 10 preguntas, cada una con 4 alternativas de las cuales sólo una es correcta.
      • Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de mujeres seleccionadas al seleccionar aleatoriamente 8 personas de un grupo de 500 personas de las cuales 280 son mujeres.
      • En EXCEL la sintaxis es: DISTR.BINOM(x, n, p, falso)
      6. Distribuciones Distribuciones discretas más importantes
    • 6. Distribuciones Distribuciones discretas más importantes
      • Selección de objetos con reemplazo y la distribución binomial:
      • Elegir al azar con reemplazo significa que escogemos al azar un elemento de un conjunto y lo regresamos para elegir de nuevo al azar. Esto garantiza la independencia de las elecciones y nos lleva a una distribución binomial.
      • Si una caja contiene N bolas de las cuales A son rojas, entonces la probabilidad de escoger al azar una bola roja es: p = A/N.
      • Si repetimos el experimento sacando n bolas con reemplazo la probabilidad de que x de ellas sean rojas es:
      • Ejemplo: (Chuck–a-luck) En este juego se elige un número entre 1 y 6. Luego se lanza tres dados, si el número elegido sale en los 3 dados se cobra 3 dólares, si sale en 2 de los dados se cobra 2 dólares, y si sale en un dado se cobra un dólar. Si el número no sale en ninguno se paga 1 dólar
      • ¿ES UN JUEGO JUSTO?
      • Sugerencia : Hallar la ganancia esperada del juego, si esta es positiva el juego es favorable al jugador, si sale negativa es desfavorable al jugador, si sale cero es indiferente.
      6. Distribuciones Distribuciones discretas más importantes
    • 6. Distribuciones Distribuciones discretas más importantes
      • Geométrica:
      • Binomial Negativa:
      En EXCEL la sintaxis es: NEGBINOMDIST(x-r, r, p)
      • Selección de objetos sin reemplazo y distribución hipergeométrica:
      • Hipergeométrica: Si en un grupo de N objetos, r de ellos tienen cierta característica estudiada que los hace distintos del resto (es decir r objetos de un tipo y N-r objetos de otro tipo), y de estos N objetos se seleccionan al azar (sin reposición) n objetos (este es por ejemplo el caso de muestreo).
      • Entonces la variable aleatoria X : número de objetos seleccionados que tienen la característica estudiada, sigue una distribución hipergeométrica con parámetros N , r , n .
      6. Distribuciones Distribuciones discretas más importantes
      • Selección de objetos sin reemplazo y distribución hipergeométrica:
      • En un lote de 50 computadoras el 10% tiene fallas, si se inspecciona al azar una muestra de 4 computadoras:
      • Cuál es la probabilidad que exactamente 2 tengan fallas
      • Cuál es la probabilidad que al menos una tenga falla
      • Cuál es la probabilidad que a lo mucho 2 tengan fallas
      • En EXCEL la sintaxis es: DISTR.HIPERGEOM(x. n, r, N)
      6. Distribuciones Distribuciones discretas más importantes
      • Poisson: Una variable aleatoria X de Poisson “cuenta” el número de eventos (independientes) que ocurren en una unidad de tiempo, de espacio, de volumen, etc.
      • Por ejemplo: el número de llegadas de personas a la fila de un cajero en un banco en una hora, el número de faltas de ortografía que comete una mecanógrafa en una hoja, el número de accidentes de trabajo por operario en un año determinado en una empresa, el número de llamadas que llegan a una central telefónica por minuto.
      • Su distribución de probabilidades es:
      6. Distribuciones Distribuciones discretas más importantes
      • A una operadora de transporte terrestre ingresan en promedio 20 camiones en una hora. El administrador ha determinado (con una prueba K-S) que el número de camiones que llegan por hora se distribuye aproximadamente con una distribución de Poisson. La capacidad de las instalaciones es para servir hasta 25 camiones por hora.
      • Cuál es la probabilidad que en una hora determinada ingresen exactamente 20 camiones?
      • Menos de 20 camiones?
      • Que la capacidad de las instalaciones se vea desbordada?
      • En EXCEL la sintaxis es: POISSON ( x,  , falso )
      6. Distribuciones Distribuciones discretas más importantes
      • En un cruce de carreteras se producen accidentes a razón de 2 por semana (en media), siguiendo aproximadamente una distribución de Poisson. Reconociendo que la frecuencia anterior es intolerable se ha decidido instalar un semáforo en dicho cruce. La siguiente semana de la instalación sólo ocurre un accidente.
      • a) ¿ Se puede afirmar que el semáforo es efectivo ?.
      • b) ¿ Cuál sería la conclusión si se hubiera producido un accidente en dos semanas ?.
      • c) ¿ Y si se hubiera producido un accidente en 4 semanas ?
      6. Distribuciones Distribuciones discretas más importantes
      • Bombas sobre Londres en la II Guerra Mundial (Feller)
      • Supón que vivías en uno de los 100 bloques que aparecen en la gráfica inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100. Como cayeron 400 bombas, podemos entender el número de impactos en un bloque como una variable aleatoria de Poisson con λ =400 1/100=4:
      6. Distribuciones Distribuciones discretas más importantes Observado Predicho
      • Uniforme: Una variable aleatoria tiene distribución uniforme en el intervalo [a, b], si su función de densidad es:
      • Se representa con X  U[a,b]
      • Ejemplo: Se conoce que el tiempo que emplea un camión en llevar material desde una cantera hasta un centro de acopio se distribuye aproximadamente mediante una distribución uniforme y que el viaje dura entre 1 hora y 1 hora y 45 minutos.
      • Cuál es la probabilidad que un camión emplee entre 1h:10 y 1h:25
      • Cuál es la probabilidad que un camión emplee más de 1h:15
      • Si se demora más de una hora y media la empresa es multada con 5$. En un día normal salen 20 de estos camiones. ¿cuál es el costo esperado diario por multas que deberá pagar la empresa?
      6. Distribuciones Distribuciones contínuas más importantes a b
      • Normal: Una variable aleatoria X tiene distribución normal con parámetros  y  2 si su función de densidad es:
      • Donde:
      • Se representa con X  N[  ,  2 ]
      6. Distribuciones Distribuciones contínuas más importantes μ
      • Normal: Un gran número de estudios indica que la distribución normal proporciona una adecuada representación, por lo menos en una primera aproximación, de las distribuciones de una gran cantidad de variables físicas. Algunos ejemplos específicos incluyen datos meteorológicos tales como la temperatura y la precipitación pluvial, mediciones efectuadas en organismos vivos, calificaciones en pruebas de actitud, mediciones físicas de partes manufacturadas, errores de instrumentación, demanda de productos y otras, etc. Sin embargo, debe tenerse mucho cuidado al suponer para una situación dada un modelo de probabilidad normal sin previa comprobación.
      • Si bien es cierto que la distribución normal es la que tiene un mayor uso, es también de la que más se abusa. Quizá esto de deba a la mala interpretación de la palabra &quot;normal“
      • Suponer de manera errónea una distribución normal puede llevar a errores muy serios.
      6. Distribuciones Distribuciones contínuas más importantes
      • Normal: Esta función tiene un gran número de aplicaciones en estadística, incluidas las pruebas de hipótesis.
      • En Excel la sintaxis es:
      • Para la distribución acumulada: DISTR.NORM(x,  ,  , acum)
      • Para la inversa: DISTR.NORM.INV(1-  ,  ,  )
      6. Distribuciones Distribuciones contínuas más importantes  1-  x
      • Normal: (Ejemplo) La demanda mensual de cierto producto se distribuye aproximadamente normal con media de 200 y desviación estándar de 40. ¿Qué tan grande debe ser el inventario disponible a principio de un mes para que la probabilidad de que la existencia se agote no sea mayor de 0.05?
      • (Ejemplo) El Bar &quot;El Imperio&quot; sirve chop a sus clientes. Se ha determinado que la demanda diaria de barriles de cerveza sigue una distribución normal con una media de 18 barriles y una desviación estándar de 4 barriles. La empresa opera 330 días al año. El costo de emisión de un pedido es $40 y el costo de mantenimiento es de $0.20 por barril por día. El tiempo de provisión requerido para recibir un pedido de barriles de cerveza desde el distribuidor es de 3 días. Determinar:
      • a) El tamaño del lote óptimo de compra.
      • b) El stock de seguridad y el punto de reabastecimiento si el Bar y Restaurante &quot;El Imperio&quot; desea que el nivel de servicio sea de un 90 %.
      • c) ¿Cuál sería el incremento en el stock de seguridad si un nivel de servicio de 95 % fuera deseado?
      6. Distribuciones Distribuciones contínuas más importantes
      • Normal: (Ejemplo) Teniendo en cuenta que el diámetro de las naranjas de exportación sigue una distribución normal, un determinado inspector conoce por su dilatada experiencia que el 30% de las naranjas que examina tienen un diámetro inferior a 60 mm y el 20% tienen el diámetro superior a 100 mm.
      • a) El país A exige que el diámetro esté comprendido entre 75 y 90 mm. Calcular la probabilidad de que esto ocurra en una determinada partida.
      • b) Calcular el intervalo de extremos simétricos respecto a la media que cubra el 90% de las naranjas.
      • c) El país B exige que el diámetro no baje de los 50 mm. La inspección se realiza midiendo el diámetro de 10 naranjas y rechazando una determinada partida si se encuentran más de dos naranjas con un diámetro inferior a 50 mm. Calcular la probabilidad de que una partida sea aceptada.
      6. Distribuciones Distribuciones contínuas más importantes
      • Exponencial : Una variable aleatoria X tiene una distribución exponencial con parámetro  , si su densidad es:
      • Donde:
      • Se suele representar con  =1/ 
      • En el caso que X represente el tiempo entre llegadas,  es el tiempo promedio entre llegadas y  sería la frecuencia de llegadas por 1 ut
      6. Distribuciones Distribuciones contínuas más importantes
      • Exponencial : Esta distribución permite (entre otras cosas) establecer el tiempo entre dos sucesos, tal como el tiempo que tarda una máquina de cajero automático en entregar efectivo, el tiempo entre la llegada de dos camiones a una terminal, etc.
      • La sintaxis en EXCEL es:
      • Para la distribución acumulada: DISTR.EXP(x,  , acum)
      6. Distribuciones Distribuciones contínuas más importantes
      • Exponencial : (Ejemplo) El promedio de llegada de camiones a una bodega para ser descargados es de 3 camiones por cada hora. Se ha determinado que el tiempo que transcurre entre dos llegadas sucesivas de camiones es exponencial.
      • a. Encuentre la probabilidad de que dado que en un momento llegó un camión, el próximo llegue antes de 10 minutos.
      • b. Encuentre la probabilidad de que dado que en un momento llegó un camión, el próximo llegue después de cuarto de hora.
      • c. Calcule la probabilidad de que durante una jornada de 8 horas lleguen como máximo 20 camiones a descargar
      • NOTA: Si el tiempo entre dos llegadas es Exponencial(  ), el número de llegadas por unidad de tiempo es Poisson(  )
      6. Distribuciones Distribuciones contínuas más importantes
      • Beta: Una variable aleatoria X tiene una distribución exponencial con parámetros  y  , si su función de densidad es:
      • Donde:
      • Se representa con X  (  ,  )
      • Otras: Poisson truncada, Weibull, Erlang, Lognormal, Pareto, Cauchy, logística, etc
      6. Distribuciones Distribuciones contínuas más importantes 1
      • Beta: La distribución beta se usa generalmente para estudiar las variaciones, a través de varias muestras, de un porcentaje que representa algún fenómeno, por ejemplo, el tiempo diario que la gente dedica a mirar televisión, el porcentaje de artículos con fallas en un lote, el porcentaje de impurezas en un producto, el porcentaje de tiempo que realmente trabaja un empleado en su horario de trabajo, la distribución del intervalo de tiempo necesario para completar una fase de proyecto PERT, etc.
      • La sintaxis en EXCEL es:
      • Para la acumulada: DISTR.BETA(x;  ,  )
      • Para la inversa: DISTR.BETA.INV(p,  ,  )
      6. Distribuciones Distribuciones contínuas más importantes
      • Beta:
      • (Ejemplo) Se ha determinado que la proporción anual de nuevos restaurantes que fracasan y quiebran en una ciudad sigue una distribución beta β (1, 4).
      • Determinar :
      • a) La proporción anual de nuevos restaurantes que se espera fracasen en la ciudad dada.
      • b) La probabilidad de que al menos el 25% de los nuevos restaurantes fracasen en la ciudad un año cualquiera.
      • (Ejemplo) Los sensores infrarrojos de un sistema robótico computarizad envían información a otros sensores en diferentes formatos. El porcentaje X de las señales que se envían y que son directamente compatibles para todos los sensores del sistema sigue una distribución beta con α = β = 2.
      • a) Calcule la probabilidad de que más del 30% de las señales de infrarrojos enviadas en el sistema sean directamente compatibles para todos los sensores.
      • b) Calcula la media y la varianza de X
      6. Distribuciones Distribuciones contínuas más importantes
    • 6. Distribuciones Distribuciones conjuntas Si se tienen las v.a. X 1 , X 2 , …, X k se denomina al vector X =( X 1 , X 2 , …, X k ) vector aleatorio. Def.- La función de distribución conjunta de un vector aleatorio X es: F ( x 1 , x 2 , …, x k )=P( X 1  x 1 , X 2  x 2 , …, X k  x k ) OBS: Dada la f.d.c. de un vector aleatorio X , podemos determinar: P( X  A )  A  IR k
    • 6. Distribuciones Distribuciones conjuntas Funciones de densidad: CASO DISCRETO: Def: Si X 1 , X 2 , …, X k son v.a.d. definidas en el mismo espacio muestral, la función de distribución de probabilidades conjunta es: p ( x 1 , x 2 , …, x k )=P( X 1 = x 1 , X 2 = x 2 , …, X k = x k ) CASO CONTINUO: Def: En el caso contínuo se define la función de densidad conjunta como: f ( x 1 , x 2 , …, x k ) tal que:
    • 6. Distribuciones Distribuciones conjuntas Distribuciones Marginales: CASO DISCRETO: Def: Si X 1 , X 2 , …, X k son v.a.d. con f.d.p. conjunta p ( x 1 , x 2 , …, x k ), se denomina f.d.p. marginal de x i a: CASO CONTINUO: Def: En el caso contínuo se define la función de densidad marginal de xi a:
    • 6. Distribuciones Distribuciones conjuntas Independencia: Def: X 1 , X 2 , …, X k se denominan v.a. independientes si para cualquier subconjunto X 1 , X 2 , …, X p :
    • 7. INFERENCIA ESTADISTICA Estimación de parámetros
      • Cuando se supone conocida una distribución para las observaciones dadas, el parámetro (  ) generalmente es desconocido, es decir se supone conocida la “forma” de la distribución salvo el valor de su parámetro.
      • Para estimar el valor del parámetro se usan las observaciones para obtener un número, denominado el “estimador”, representado con
      • Pero, ¿cómo obtener buenos estimadores?
      • -Método de los momentos
      • -Método de la Máxima Verosimilitud
      • Estimadores de Máxima Verosimilitud (ML)
      • Dadas las observaciones X 1 , X 2 , …, X n , obtenidas de una población con densidad f(x;  ), se denomina función de verosimilitud de la muestra a:
      • El estimador de máxima verosimilitud del parámetro  es el valor de  que maximiza L .
      • Es decir, se obtiene resolviendo la ecuación vectorial:
      7. INFERENCIA ESTADISTICA Estimación de parámetros
      • Los intervalos de confianza para un parámetro cualquiera (por ejemplo la media) nos dan un rango de valores alrededor del estimador dónde esperamos se encuentre el verdadero valor del parámetro (de la población), con cierto nivel dado de certeza.
      • Es decir, un intervalo de confianza de (1-  ) 100% de confianza para un parámetro  es un intervalo de la forma: [LIC, LSC], donde:
      • P(LIC  LSC) = 1- 
      7. Inferencia estadística INTERVALOS DE CONFIANZA
      • Ejemplo:
      • En una hacienda hay 2000 reses, se ha escogido una muestra de 50 reses y se ha obtenido que en promedio pesan 420 Kg. Se conoce que la desviación típica de los pesos de las reses es de 48 kg.
      • Hallar el IC del 90% para el peso promedio real de las reses de la hacienda.
      • Hallar el IC del 98% para el peso promedio real de las reses de la hacienda.
      7. Inferencia estadística INTERVALOS DE CONFIANZA
      • ¿Qué es una prueba de hipótesis?
      • Es un procedimiento estadístico diseñado para comprobar una hipótesis que se hace el investigador sobre un parámetro desconocido o sobre la distribución de una población.
      • Las pruebas de hipótesis se realizan en todos los ámbitos en los cuales puede contrastarse la teoría frente a la observación, probar una hipótesis implica tomar una decisión al comparar la muestra observada con una suposición que se hace de la realidad.
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
      • Los elementos de una prueba de hipótesis son:
      • Hipótesis Nula ( Ho )
      • Hipótesis Alternativa ( Ha )
      • Estadístico de Prueba ( EP )
      • Región de rechazo ( R.R. ) - o nivel de significancia ( p )
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
      • Decisión y error en una P.H.
      7. Inferencia estadística PRUEBAS DE HIPOTESIS Decisión Correcta Decisión Correcta Error tipo II Error tipo I Decisión Rechazar Ho Aceptar Ho Ho es verdadera Ho es falsa
      • Decisión y error en una P.H.
      • P(Error tipo I)= 
      • P(Error tipo II)= 
      • Nivel de significancia: Menor valor de alfa para el cual se rechaza la hipótesis nula
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
      • La significancia estadística de un resultado es la probabilidad que la relación observada (por ejemplo, entre las variables) o una diferencia (por ejemplo, entre las medias) en una muestra ocurrió por pura coincidencia (“la suerte de la lotería”), y que en la población de la que la que se escoge la muestra no existe tal relación o diferencias
      • En muchas áreas de investigación, el valor p de .05 se toma habitualmente como un valor crítico del nivel del error aceptable
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
    • Pruebas inferenciales mas frecuentes de acuerdo a la escala de medición 7. Inferencia estadística PRUEBAS DE HIPOTESIS
    • PRUEBA t
      • La prueba t para muestras independientes
      • La prueba t es el método mas comúnmente usado para evaluar las diferencias entre las medias de dos grupos.
      • Teóricamente, la t-prueba puede usarse aun cuando los tamaños de la muestra son muy pequeños (por ejemplo, tan pequeño como 10; algunos investigadores exigen por lo menos eso)
      • El nivel p reportado en una t-prueba representa la probabilidad de error involucrada en aceptar nuestra hipótesis investigada sobre la existencia de una diferencia.
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
    • PRUEBA t
      • Gráficos de la prueba t. En el análisis de la prueba t, las comparaciones entre las medias y las medidas de variación en los dos grupos pueden visualizarse en los diagramas de caja
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
    • PRUEBA DE ANOVA
      • A menudo sucede en la investigación práctica que se necesita comparar más de dos grupos (por ejemplo, medicina 1, medicina 2, y placebo), o comparar grupos creados por más de una variable independiente y controlando la influencia separada de cada uno de ellos (por ejemplo, Género, el tipo de Droga, y tamaño de Dosis).
      • En estos casos, se necesita analizar los datos usando el denominado Análisis de Varianza, que puede considerarse como una generalización de la prueba t
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
    • PRUEBAS NO PARAMETRICAS
      • Muchas veces no se puede asumir una distribución dada para una población de donde se han obtenido la(s) muestra(s), en ese caso se deben utilizar las denominadas pruebas no paramétricas o libres de distribución, a continuación se presenta una tabla donde se observan las pruebas no paramétricas equivalentes a las paramétricas.
      7. Inferencia estadística PRUEBAS DE HIPOTESIS
    • 8. Pruebas de Bondad de ajuste
      • Muchas veces no se está claro si se cumplen los supuestos de alguna distribución, otras veces es necesario asumir una distribución teórica para modelizar la distribución de una variable, para esto se tienen las pruebas de bondad de ajuste.
      • Las pruebas de bondad de ajuste más usadas son:
      • Prueba  2
      • Prueba K-S (Kolmogorov – Smirnov)
    • 8. Prueba de Bondad de ajuste  2
      • Se pueden clasificar a las GOF ( goodness-of-fit ) en dos grupos:
      • Las que dividen al rango de los datos en “casillas” disjuntas, y luego el número de observaciones que caen en cada casilla es comparado con el número esperado bajo la distribución supuesta en la hipótesis nula. Es natural usarlas en el caso discreto.
      • En estas pruebas se comparan la función de distribución empírica de la muestra y la función teórica dada en la hipótesis nula. El estadístico de prueba está basado en alguna medida de distancia entre las dos distribuciones. Se usan casi exclusivamente para el caso de distribuciones contínuas.
      Prueba  2 Prueba K-S
    • 8. Prueba de Bondad de ajuste  2
      • En la prueba  2 las n observaciones son agrupadas en k casillas disjuntas, c/u de las cuales debe contener por lo menos 5 observaciones, sea n i la frecuencia observada en la casilla i.
      • Lo que se desea probar es:
      • Ho: La distribución de la población es F o , vs.
      • Ha: La distribución de la población no puede ser F o ,
      • Con la distribución F o dada en Ho, se calculan las probabilidades de casilla p i , y luego la frecuencia esperada de casilla = n p i
    • 8. Prueba de Bondad de ajuste  2
      • El estadístico de prueba es:
      • Y la región de rechazo es:
      • Siendo L el número de parámetros que se deben estimar.
      Nota: La distribución  2 con  grados de libertad se define como una distribución Gamma con parámetros  =  /2 y  =2
      • En resumen, la Prueba de bondad de ajuste  2 es:
      • Ho: La distribución de la población es F o (x)
      • Ha: La distribución de la población no puede ser F o (x)
      • E.P.:
      • R.R.:
      • Obs: La frecuencia observada de cada casilla F.O . debe ser  5
      8. Prueba de Bondad de ajuste  2
    • 8. Prueba de Bondad de ajuste K-S Ho: La distribución de la población es F o Ha: La distribución de la población no puede ser F o E.P.: R.R.: La función (x) es la distribución empírica de la muestra
    • 8. Prueba de Bondad de ajuste K-S
    • 9. Métodos de pronóstico: regresión lineal y medias móviles.
      • La previsión de la demanda (mas comúnmente conocida como el pronóstico de la demanda) es la estimación de los niveles futuros que adoptará la demanda y es un elemento de gran relevancia en la planificación de la empresa y, por tanto, en la definición de los objetivos de los diferentes departamentos de la empresa.
      • Los métodos de estimación de la demanda se clasifican en dos tipos:
      • Los métodos cuantitativos
      • Los métodos cualitativos
      • Ver documento “ pronóstico de la demanda.doc”
    • 10. Generalización del teorema de Bayes
      • La regla de Bayes también se puede aplicar a v.a.c.. Supongamos que tenemos una v.a.c. x que es especificada por una distribución indexada por un parámetro 
      • A priori:
      • Podemos cuantificar nuestro conocimiento a priori acerca del valor del parámetro y estimar una distribución a priori
      • Verosimilitud
      • Esta es la distribución (o verosimilitud) de la v.a. x , es decir:
    • 10. Generalización del teorema de Bayes
      • A posteriori:
      • Aplicando la regla de Bayes obtenemos la distribución posterior:
      • Donde el denominador es:
      • Cualquier tipo de inferencias pueden hacerse a partir de la distribución posterior del parámetro del modelo  , donde el dato x incluye información tanto de la a priori como de la verosimilitud.
    • 10. Generalización del teorema de Bayes
      • Esto es generalizado para una muestra aleatoria x 1 , x 2 , …, x n proveniente de una distribución que depende de los parámetros  1 ,  2 , …,  j .
      • A Priori: Cuantificamos nuestras creencias acerca de los parámetros en la forma de una distribución conjunta.
      • p (  1 ,  2 , …,  j )
      • Donde no necesariamente son independientes.
      • Verosimilitud: Con la muestra, la distribución conjunta de las observaciones es:
    • 10. Generalización del teorema de Bayes
      • Posterior: Aplicando la regla de Bayes:
      • Donde el denominador es:
      • Notación:
    • 10. Generalización del teorema de Bayes
      • la estadística Bayesiana es nada más que un modelo formal de aprendizaje en un ambiente de incertidumbre aplicado a la inferencia estadística . Lo a priori expresa mis creencias sobre antes de observar los datos; mientras que la distribución expresa mis creencias actualizadas sobre después de observar los datos.
      • A partir de esto, llevar a cabo un análisis Bayesiano es ilusoriamente simple y siempre se procede de la siguiente manera:
      • Formular la distribución muestral y la distribución a priori .
      • Calcular la distribución posterior según Bayes
      • ¡Eso es todo! Toda la información acerca de está contenida ahora en la distribución posterior. Por ejemplo la probabilidad que es:
    • 10. Generalización del teorema de Bayes
      • Ya que la distribución posterior es la representación completa de sus creencias sobre , a veces es conveniente informar una sola estimación, por ejemplo el valor más probable de , este se denomina entonces el estimador bayesiano de .
      • Aplicación: sea y = x 1 , x 2 , …, x n una muestra aleatoria de puntuaciones, con la suposición que estas provienen de una población normal con media  y varianza  2 ,
      • Si usamos la a priori:
    • 10. Generalización del teorema de Bayes
      • Donde  0 y  0 2 son la media y la varianza a priori conocidas, antes de conocer los datos
      • La distribución posterior de  es:
      • El numerador es:
    • 10. Generalización del teorema de Bayes
      • Entonces:
      • Donde:
      • Luego:
      • O también:
    • 10. Generalización del teorema de Bayes
      • En el siguiente gráfico se observan las densidades a priori y posterior de  para diferentes muestras.
      • Muestra: {1,0,6,0,3}
    • 11. TEORIA DE LA DECISION
      • Def: La teoría de la decisión estudia los métodos analíticos que proveen las herramientas para analizar situaciones en las cuales hay que tomar una o más decisiones.
      • La decisión tomada debe ser la mejor posible respecto a algún criterio de optimalidad ( o la mejor posible “en promedio”)
    • 11. TEORIA DE LA DECISION
      • AMBIENTES SOBRE LOS CUALES SE TOMA DECISIONES
      • Decisiones bajo Certidumbre
      • Decisiones bajo incertidumbre
      • Decisiones bajo riesgo
    • 11. TEORIA DE LA DECISION
      • Decisiones bajo Certidumbre : Se conocen con certeza los resultados o consecuencias de seleccionar cada alternativa
      • Ejemplo: Se tienen 1000$ a invertir en un año, se los puede poner en una libreta de ahorros al 3.0% de interés anual o comprar un certificado de depósito que paga el 5% anual. Asumiendo que ambas alternativas son seguras el certificado de depósito nos da un retorno mayor. La decisión óptima está clara, fácil de obtener!.
    • 11. TEORIA DE LA DECISION
      • Otros problemas de decisión bajo certidumbre son muy complicados, en ese caso solo se puede obtener una “buena” solución.
      • Ejemplo: Se tienen 100 clientes, a los cuales se debe entregar cierto producto en determinado intervalo de tiempo, se conoce la ubicación, la demanda y la ventana de tiempo de los clientes. También se tiene un depósito, desde donde deben salir los vehículos (que tienen una capacidad q conocida) cargados para satisfacer la demanda de los clientes. Se debe decidir cuántos vehículos enviar y por donde enviarlos.
    • 11. TEORIA DE LA DECISION Red física: Ubicaciones de clientes
    • 11. TEORIA DE LA DECISION 0 Grafo matemático: Nodos, arcos y pesos
    • 11. TEORIA DE LA DECISION Obtención de rutas individuales
    • 11. TEORIA DE LA DECISION Costo del ruteo: 19794 Costo del ruteo: 1307
    • 11. TEORIA DE LA DECISION Decisiones bajo Incertidumbre : No se conocen las probabilidades asociadas con los diferentes resultados de cada alternativa. Ejemplo: Un empresa estudia la posibilidad de añadir un nuevo producto a su línea de producción. Las alternativas que se estudian son: hacer una ampliación grande, hacer una ampliación pequeña, o no hacer ninguna ampliación a las actuales instalaciones para producir el nuevo producto. Si no conocemos las probabilidades asociadas con cada uno de los resultados para las distintas alternativas tenemos que tomar una decisión bajo una completa incertidumbre.
    • 11. TEORIA DE LA DECISION Decisiones bajo Riesgo : Se conocen las probabilidades asociadas con los diferentes resultados de cada alternativa. Ejemplo: Si en el ejemplo anterior se conocen estimaciones de las probabilidades asociadas a la posible demanda del nuevo producto, por ejemplo a través de un estudio de mercado, tenemos un problema de decisión bajo riesgo.
    • 11. TEORIA DE LA DECISION
      • El origen de la teoría de la decisión para la toma de decisiones se deriva de la economía, en el área de la función de la utilidad del pago. Propone que las decisiones deben tomarse calculando la utilidad y la probabilidad de rangos de opciones, y establece estrategias para una buena toma de decisiones.
      • Proceso de Toma de Decisiones Estadísticas
      • A diferencia de los procesos de toma de decisiones determinísticas tal como, optimización lineal resuelto mediante sistema de ecuaciones, sistemas paramétricos de ecuaciones y en la toma de decisión bajo pura incertidumbre, las variables son normalmente más numerosas y por lo tanto más difíciles de medir y controlar. Sin embargo, los pasos para resolverlos son los mismos. Estos son:
    • 11. TEORIA DE LA DECISION
      • 1. Simplificar
      • 2. Construir un modelo de decisión
      • 3. Probar el modelo
      • 4. Usar el modelo para encontrar soluciones:
      • El modelo es una representación simplificada de la situación real
      • No necesita estar completo o exacto en todas las relaciones
      • Se concentra en las relaciones fundamentales e ignora las irrelevantes.
      • Este es entendido con mayor facilidad que un suceso empírico (observado), por lo tanto permite que el problema sea resuelto con mayor facilidad y con un mínimo de esfuerzo y pérdida de tiempo.
      • 5. El modelo puede ser usado repetidas veces para problemas similares, y además puede ser ajustado y modificado.
    • 11. TEORIA DE LA DECISION
      • Elementos de la teoría de decisiones:
      • El análisis de decisiones es un proceso que le permite al decisor seleccionar una decisión (sólo una) entre un conjunto de alternativas posibles de decisión, cuando existe incertidumbre con respecto al futuro, con el objetivo de optimizar el pago (retorno) resultante, en términos de algún tipo de criterio de decisión numérico. Los elementos de los problemas de análisis de decisiones son los siguientes:
      • Hay un decisor responsable individual.
      • Un número finito de eventos (futuros) posibles, llamados Estados de la Naturaleza, es decir, un conjunto de escenarios posibles. Las circunstancias en las cuales se toma una decisión se llaman estados de la naturaleza. Los estados de la naturaleza se identifican y agrupan en el conjunto  ; los miembros se denotan como  . El conjunto  es un grupo de conjuntos mutuamente excluyentes. Es decir, sólo puede ocurrir un estado de la naturaleza. ¿Qué puede hacer la naturaleza?
    • 11. TEORIA DE LA DECISION
      • Elementos de la teoría de decisiones:
      • Un número finito de alternativas posibles de decisión. Hay una acción a , miembro del conjunto A , que puede ser adoptada por el decisor. Sólo puede adoptar una. ¿Qué puedo hacer? Una buena decisión requiere buscar un conjunto más rico de alternativas que las que se presentaron inicialmente o que las aceptadas tradicionalmente.
      • La manera más sencilla de formular el problema de decisión es usando una matriz de beneficios (o tabla de pagos). Suponemos que se puede construir una matriz de beneficios L bien definida, monetaria (y luego de utilidad) sobre dos conjuntos de dominio dimensionales A y  . Las filas y las columnas se asignan a las alternativas de decisión posibles y a los estados posibles de la naturaleza, respectivamente. Normalmente no es tarea sencilla construir esta matriz; por lo tanto, puede requerir algo de práctica.
      • Generalmente, esta función refleja una ganancia, si el problema se plantea en términos de pérdidas, estas se pueden expresar como ganancias negativas. Un valor de la matriz de pagos l ( a ,  ) representa el pago asociado a esta combinación acción - estado de la naturaleza.
    • 11. TEORIA DE LA DECISION
      • Fuente de Errores en la Toma de Decisiones:
      • La fuente principal de errores en los problemas de toma de decisiones arriesgadas son las presunciones falsas, no tener una estimación exacta de las probabilidades, depender de la expectativa, dificultades en medir la función de utilidad, y los errores de pronóstico.
    • 11. TEORIA DE LA DECISION
      • Acciones dominadas:
      • En los problemas de decisión suelen existir muchas acciones posibles, por lo tanto es conveniente que previamente se lo reduzca tanto como sea posible.
      • Decimos que una acción a’ es dominada por una acción a , si los pagos para a son mejores que los pagos para a’ , sin importar el estado de la naturaleza. Es decir:
      • Si los pagos son ganancias, al contrario si son costos
    • 11. TEORIA DE LA DECISION
      • EJEMPLO:
      • Una compañía de computadoras compra chips a dos proveedores, A y B . En cada orden de 1000 chips (independientemente del proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.
      • El proveedor A vende el paquete de 1000 chips por $300 y el proveedor B lo vende por $302. Cada chip defectuoso se devuelve a un costo de $0.15 por chip . ¿A cuál proveedor conviene comprar los chips ?
      Estados de la naturaleza Acciones Pagos Acción dominada % defectuosos Proveedor 1% 3% 5% A -301.5 -304.5 -307.5 B -303.5 -306.5 -309.5
    • 11. TEORIA DE LA DECISION
      • EJEMPLO:
      • Una compañía de computadoras compra chips a dos proveedores, A y B . En cada orden de 1000 chips (independientemente del proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.
      • El proveedor A vende el paquete de 1000 chips por $300 y el proveedor B lo vende por $302. Cada chip defectuoso adquirido al proveedor A es devuelto a un costo de $0.15 por chip , mientras que uno defectuoso adquirido al proveedor B es devuelto a un costo de $0.05 ¿A cuál proveedor conviene comprar los chips ?
    • 11. TEORIA DE LA DECISION
      • OBSERVACIONES A PARTIR DE LA TEORIA DE JUEGOS:
      • El pago es una medida cuantitativa del valor de las consecuencias del resultado para el tomador de decisiones, en este sentido muchas veces el pago se representa por la ganancia monetaria neta (utilidad). Si las consecuencias del resultado no son completamente ciertas aun cuando ocurra el estado de la naturaleza, entonces el pago se convierte en un valor esperado (en el sentido estadístico) de la medida de las consecuencias
      • Sea l ( a,  ) el pago al tomar la acción a cuando el estado de la naturaleza es  . En general, se usa una tabla de pagos para cada combinación de a y  y ; en el contexto de la teoría de juegos el tomador de decisiones y la naturaleza se pueden ver como dos jugadores.
      • Las acciones posibles y los estados de la naturaleza posibles se pueden ver como las estrategias disponibles para los respectivos jugadores, donde cada combinación de estrategias da como resultado un pago para el jugador 1 (el tomador de decisiones).
    • 11. TEORIA DE LA DECISION
      • Así se tiene que:
      • - El tomador de decisiones necesita elegir una de las acciones posibles
      • - La naturaleza elegirá luego uno de sus estados (de la naturaleza) posibles, cada combinación de una acción a y un estado de la naturaleza  da como resultado uno de los elementos de la tabla de pagos. Esta tabla de pagos debe usarse para encontrar una acción óptima para el tomador de decisiones según un criterio adecuado.
      • Si consideramos que en la teoría de juegos ambos jugadores son racionales y eligen sus estrategias para promover su propio beneficio, esto se ajusta al tomador de decisiones pero no a la naturaleza ya que esta es un jugador pasivo que elige sus estrategias (estados de la naturaleza) de una manera aleatoria.
    • 11. TEORIA DE LA DECISION
      • TIPOS DE MODELOS DE DECISION:
      • Existen tipos diferentes de modelos de decisión que ayudan a analizar distintos escenarios, dependiendo de la cantidad y el grado de conocimiento que tengamos. Los tres tipos más ampliamente utilizados son:
        • Decisión tomada con pura incertidumbre,
        • Decisión tomada con riesgo,
        • Decisión tomada comprando información (empujando el problema hacia el &quot;polo&quot; determinista)
    • 11. TEORIA DE LA DECISION
      • TOMA DE DECISIONES BAJO INCERTIDUMBRE:
      • En las decisiones tomadas con pura incertidumbre, el decisor no tiene ningún conocimiento, ni siquiera de la probabilidad de ocurrencia de cualquier estado de la naturaleza. En este caso, el comportamiento del decisor se basa puramente en su actitud hacia lo desconocido. Algunos de estos comportamientos son los optimistas, los pesimistas y los de arrepentimiento, entre otros.
      • Optimista: El vaso está medio lleno.
      • Pesimista: El vaso está medio vacío.
      • Gerente: El vaso es el doble de grande de lo necesario.
    • 11. TEORIA DE LA DECISION
      • Comportamiento según los tipos de personalidad y la toma de decisiones con pura incertidumbre:
      • Pesimismo , o Conservador (MAXIMIN). Las cosas malas siempre me suceden a mí.
      • Optimismo , Agresivo (MAXIMAX). Las cosas buenas siempre me suceden a mí.
      • Mínimo arrepentimiento: (Pérdida de Oportunidad de Savage). Odio las lamentaciones. Debo minimizar las situaciones deplorables. Mi decisión debe ser tal que valga la pena repetirla. Sólo debería hacer las cosas que siento que podría repetir con placer.
    • 11. TEORIA DE LA DECISION
      • MAXIMIN:
      • Basado en la teoría de juegos, se selecciona la acción encontrando el pago mínimo sobre todos los estados posibles de la naturaleza y después encontrar el máximo de estos pagos mínimos.
      • Es válido cuando se considera que se está compitiendo contra un oponente racional y malévolo, como puede ser el caso de la competencia con alguna otra empresa; sin embargo si se considera que el oponente es la propia naturaleza resulta demasiado conservador en este contexto ya que la naturaleza no es un oponente malévolo y el tomador de decisiones no necesita enfocar su atención solo en el peor pago de cada acción.
      • En el caso de que la tabla de pagos sea de Costos o pérdidas, sería un criterio MINMAX
    • 11. TEORIA DE LA DECISION
      • MAXIMIN: Seleccionar la acción a k en la cual se tiene la ganancia maximin:
      • Ejemplo: Sea el problema de decisión con tabla de ganancias:
      0 -1 Máximo La acción Maximin es a 1  1  2 a 1 0 2 a 2 -1 4 Mínimo Mínimo
    • 11. TEORIA DE LA DECISION
      • MAXIMAX: Seleccionar la acción a k en la cual se tiene la ganancia maximax:
      • Ejemplo: En el problema anterior:
      2 4 Máximo La acción Maximax es a 2  1  2 a 1 0 2 a 2 -1 4 Máximo Máximo
    • 11. TEORIA DE LA DECISION
      • MINIMAX: Construir la tabla de pérdida de oportunidades L P , y seleccionar la acción a k en la cual se tiene la pérdida de oportunidades minimax:
      • Ejemplo: En el problema anterior:
      2 1 Mínimo La acción Minimax es a 2 L P  1  2 a 1 0 2 a 2 1 0 Máximo Máximo L  1  2 a 1 0 2 a 2 -1 4
    • 11. TEORIA DE LA DECISION Ejemplo: De acuerdo con sus registros anteriores de ventas, un vendedor de revistas conoce que la demanda por cierta revista es solo de 5, 6, 7 u 8 ejemplares. Cada revista cuesta 1.2$ y se vende por 3.0$. a. Supongamos que el devuelve las revistas no vendidas al mismo valor que las adquirió. b. Si hay un descuento de 0.50 por cada revista devuelta. Deducir la decisión optimista, pesimista y de mínima pérdida de oportunidad
    • 11. TEORIA DE LA DECISION Ejemplo: Una empresa debe seleccionar una de las 4 máquinas que dispone para fabricar Q unidades de determinado producto, del que se sabe que como mínimo se demandarán 10 unidades y como máximo 40 unidades. Si los costos fijos y variables por unidad producida de cada máquina son: Qué máquina utilizará? (utilice los criterios) Máquina Costo fijo Costo unitario 1 100 5 2 40 12 3 150 3 4 90 8
    • 11. TEORIA DE LA DECISION En este caso resulta bastante largo ( e innecesario) construir toda la matriz de pagos, pues se tienen 4 acciones posibles: a1: Lanzar la producción en la máquina 1 a2: Lanzar la producción en la máquina 2 a3: Lanzar la producción en la máquina 3 a4: Lanzar la producción en la máquina 4 Y se tienen 31 estados de la naturaleza posibles (cuánto producir)  j: producir j unidades del producto; j=10, 11, …, 40 Así, podríamos utilizar la relajación contínua de estas variables, que se muestra en la figura siguiente (donde se puede analizar fácilmente si hay acciones dominadas o establecer la decisión por los criterios optimista, pesimista o de mínimo arrepentmento)
    • 11. TEORIA DE LA DECISION a 2 a 4 a 1 a 3 Q $ Dominadas por a 1
    • 11. TEORIA DE LA DECISION a 1 a 3 Q $ MAXIMIN MAXIMAX
    • 11. TEORIA DE LA DECISION
      • Decisión tomada con riesgo:
      • Observe que la categoría de problemas anteriores (es decir, los problemas con pura incertidumbre) resultan apropiados sólo para la toma de decisiones en la vida privada. No obstante, la persona pública (es decir, el gerente) tiene que tener cierto conocimiento de los estados de la naturaleza, para poder predecir las probabilidades de cada estado. De lo contrario no podrá tomar una buena decisión.
      • Siempre que un decisor tiene cierto conocimiento sobre los estados de la naturaleza puede asignar una probabilidad subjetiva a la ocurrencia de cada estado. Y cuando lo hace, el problema se clasifica como toma de decisiones bajo riesgo.
    • 11. TEORIA DE LA DECISION
      • Se tienen fundamentalmente dos criterios:
      • CRITERIO DE LA MAXIMA VEROSIMILITUD
      • Este criterio se refiere al estado más probable de la naturaleza. El criterio de la máxima verosimilitud afirma que se debe identificar el estado más probable de la naturaleza (Aquel que tiene la probabilidad más grande), y para ese estado de la naturaleza se debe encontrar la acción con el máximo pago y por último se debe elegir esa acción.
      • Se debe elegir la acción a k para la cual (en el caso de ganancias):
       r es el estado mas probable
    • 11. TEORIA DE LA DECISION
      • CRITERIO DE BAYES
      • Se dispone de una distribución “a priori” de los estados de la naturaleza, se debe elegir la acción a k en la cual se maximiza el pago esperado. Es decir:
      • Es decir se selecciona la acción que proporciona el mejor pago esperado. Por tanto tiene aplicación si es que la decisión debe tomarse algunas veces.
      • También puede aplicarse el criterio sobre la matriz de pérdida de oportunidades, y en ese caso se debe tomar la acción que minimice la pérdida esperada de oportunidad.
    • 11. TEORIA DE LA DECISION En el ejemplo de la diapositiva 128, si las probabilidades de que hayan 1%, 3% o 5% de defectuosos del proveedor A son de 80%, 10% y 10%, respectivamente, se tiene lo siguiente:
    • 11. TEORIA DE LA DECISION
      • PAGO ESPERADO CON INFORMACION PERFECTA:
      • PEIP = Pago promedio que puede anticiparse con el conocimiento de información perfecta acerca del estado de la naturaleza.
      • VALOR ESPERADO DE LA INFORMACION PERFECTA:
      • VEIP es la cantidad promedio que pierde por no tener información perfecta sobre que estado de la naturaleza ocurrirá.
      • Coincide con la pérdida esperada de oportunidad mínima.
      • Aunque no existe información 100% confiable este valor puede ser como una cota de la cantidad de dinero que el decisor estaría dispuesto a pagar por información.
    • 11. TEORIA DE LA DECISION Para el caso en que los pagos son ganancias: Para el caso en que los pagos son costos:
    • 11. TEORIA DE LA DECISION Para el ejemplo anterior:
    • 11. TEORIA DE LA DECISION
      • ARBOLES DE DECISION:
      • Los árboles de decisión son diagramas donde se presentan, en forma secuencial, las decisiones y los estados de la naturaleza.
      • Tienen dos tipos de nodos:
      • - Nodos de decisión:
      • - Nodos de eventos:
      • En cada una de las ramas que sales de los nodos evento se colocan las probabilidades de cada uno
      • Para cada nodo evento se calcula un pago esperado
      • En cada nodo de decisión se escoge la alternativa con el mejor pago esperado
    • 11. TEORIA DE LA DECISION
      • ARBOLES DE DECISION:
      • En resumen, los árboles de decisión proveen un método efectivo para la toma de decisiones debido a que:
      • - claramente plantean el problema para que todas las opciones sean analizadas.
      • - permiten analizar totalmente las posibles consecuencias de tomar una decisión.
      • - proveen un esquema para cuantificar el costo de un resultado y la probabilidad de que suceda.
      • - nos ayuda a realizar las mejores decisiones sobre la base de la información existente y de las mejores suposiciones.
    • 11. TEORIA DE LA DECISION CASO: LITIGIO TELMOV, un operador de telefonía móvil, ha presentado una querella legal en contra de FONOMOVIL por prácticas comerciales monopolistas, pidiendo US.$ 1Millón por daños. En noviembre, TELMOV recibe una oferta de FONOMOVIL para arreglar la situación, en la que le ofrecen 350.000 dólares. El consejo de administración de TELMOV debe decidir si acepta o no la propuesta o continúa la querella. Los abogados creen que la probabilidad que TELMOV gane es de 2/3. Sin embargo, señalan que incluso ganando, la probabilidad de que el juez otorgue el 1 millón pedido es de 50%, ya que también existe la posibilidad de que otorgue sólo 500.000$. Los abogados han informado que sus honorarios entre noviembre y junio (mes en que se celebrará la audiencia) serán de 30.000$ y que los honorarios de representación en el juicio serán de 25.000$. El consejo de administración de TELMOV cree que hay una probabilidad de 60% de que FONOMOVIL haga una 2º oferta en junio, antes de empezar la audiencia. Si esto es así, se estima que la probabilidad de que el arreglo sea por 450.000$ es del 70% y del 30% que sea de 550.000$. Si FONOMOVIL no presenta esta segunda oferta en junio, TELMOV puede iniciar una negociación, conformándose, en ese caso, con unos 250.000$.
    • 11. TEORIA DE LA DECISION CASO: LITIGIO Si esta empresa utiliza una estrategia que maximice su utilidad esperada, construya el árbol de decisión, ¿Cuál debe ser su decisión?, realice un análisis de sensibilidad DESARROLLO: Este es un problema de decisiones secuenciales que se puede resolver con un árbol de decisiones. Acciones y estados de la naturaleza son: A1: Aceptar la primera oferta en noviembre A2: No aceptar la primera oferta A3: Ir a juicio A4: iniciar una negociación A5: Aceptar la segunda oferta en junio A6: No aceptar la segunda oferta  1: FONOMOVIL no propone una segunda oferta  2: FONOMOVIL propone una segunda oferta  3: TELMOV gana el juicio  4: TELMOV pierde el juicio  5: el juez concede una indemnización de 1 millón de dólares  6: el juez concede una indemnización de 500.000 dólares  7: la segunda oferta es de 450.000 dólares  8: la segunda oferta es de 550.000 dólares.
    • 11. TEORIA DE LA DECISION CASO: LITIGIO
    • 11. TEORIA DE LA DECISION CASO: LITIGIO (ARBOL)
    • 11. TEORIA DE LA DECISION CASO: LITIGIO (ARBOL)
    • 11. TEORIA DE LA DECISION CASO: LITIGIO (SENSIBILIDAD) UTILIDAD ESPERADA DE LA MEJOR POLITICA EN FUNCION DEL MONTO DE LA PRIMERA OFERTA Y LA PROBABILIDAD DE GANAR EL JUICIO
    • 11. TEORIA DE LA DECISION
      • TOMA DE DECISIONES CON INFORMACION EXPERIMENTAL:
      • Los árboles de decisión hacen más fácil la inclusión de información nueva (o a posteriori), obtenida generalmente por un proceso de experimentación o de muestreo. En ese caso se debe hacer uso de la regla de Bayes para calcular las probabilidades a posteriori.
      • El árbol de decisión es una representación cronológica del proceso de decisión.
      • Se calculan las ganancias esperadas retrocediendo en el árbol, comenzando desde el extremo derecho.
      • En las ramas salientes de los nodos evento se deben asignar las probabilidades, según la regla de Bayes o la fórmula de la probabilidad total, según sea el caso.
    • 11. TEORIA DE LA DECISION PROBLEMA DE DECISION: PRIMERA PARTE: Se tiene el siguiente problema de decisión concerniente a la producción de un nuevo producto, en el cuál se debe decidir si desarrollar o no el mismo, bajo los posibles escenarios de poca venta, venta media y mucha venta: Estados de la naturaleza Mucha venta Venta media Poca venta A(0,2) B (0,5) C (0,3) A1 (desarrollar) 3000 2000 -6000 A2 (no desarrollar) 0 0 0 Las probabilidades de los estados de la naturaleza (en paréntesis) representan los distintos grados que tiene el criterio del decisor (por ejemplo, un gerente) con respecto a la ocurrencia de cada estado. Estas evaluaciones subjetivas de la probabilidad son las probabilidades &quot;a priori&quot;. ¿ Bajo el criterio de máxima verosimilitud que se elige ? ¿ Bajo el criterio de Bayes que se elige ? ¿Cuál es el VEIP ?
    • 11. TEORIA DE LA DECISION SEGUNDA PARTE: Sin embargo, el gerente se siente algo reacio a tomar esta decisión sin mas información; por ello solicita la asistencia de una firma de investigación de mercado. Ahora nos enfrentamos a una nueva decisión. Es decir, con cuál firma de investigación de mercado debe consultar su problema de decisión. De esta manera es que el gerente debe tomar una decisión acerca de cuán &quot;confiable&quot; es la firma consultora. Analizando el desempeño previo de la consultora se ha desarrollado la siguiente matriz de confiabilidad: Qué sucedió realmente en el pasado A B C Lo que el consultor Ap 0,8 0,1 0,1 predijo Bp 0,1 0,9 0,2 Cp 0,1 0,0 0,7 Donde Ap: el consultor predice buen mercado, Bp: un mercado mediano, Cp: uno malo. Todas las Firmas de Investigación de Mercado llevan registros (es decir, conservan datos históricos) del desempeño alcanzado en relación con las predicciones anteriores que hubieren formulado. Estos registros los ponen a disposición de sus clientes sin cargo alguno. Para construir una matriz de confiabilidad debe tomar en consideración los &quot;registros de desempeño&quot; de la Firma de Investigación de Mercado
    • 11. TEORIA DE LA DECISION
      • Se conoce que el consultor cobra 500 dólares por la consultoría realizada.
      • Identificar las verosimiltudes P(Ap|A), P(Bp|A), P(Cp|A), P(Ap|B), P(Bp|B), P(Cp|B), P(Ap|C), P(Bp|C), P(Cp|C).
      • Hallar las probabilidades a posteriori P(A|Ap), P(A|Bp), P(A|Cp), P(B|Ap), P(B|Bp), P(B|Cp), P(C|Ap), P(C|Bp), P(C|Cp)
      • Dibuje el árbol de decisiones.
      • Muchos casos de toma de decisiones gerenciales, como el de este ejemplo, involucran una secuencia de decisiones.
      • En la siguiente lámina se observa el gráfico correspondiente al árbol de decisiones óptimas.
    • 12. Decisiones con muestreo hipergeométrico y binomial
      • La incorporación de nueva información es beneficiosa para el proceso de toma de decisiones pues tiene por efecto principal disminuir la incertidumbre involucrada.
      • Generalmente, la nueva información se obtiene por “muestreo”, proceso por medio del cual se establecen las reglas que indican como se debe escoger los elementos de una población para ser objeto de estudio.
      • Esta nueva información se incorpora al proceso de toma de decisiones en forma de las probabilidades a posteriori.
      • El proceso de muestreo mas común involucra las distribuciones hipergeométrica y binomial.
    • 12. Decisiones con muestreo hipergeométrico y binomial
      • El muestreo implica distribuciones hipergeométricas, pues implica situaciones como la de: “se extrae una muestra de tamaño n de una población de tamaño N de los cuales k son defectuosos”, entonces si X= número de artículos defectuosos en la muestra, X tiene distribución hipergeométrica
      • Pero, si se considera que las muestras son muy pequeñas comparadas con el tamaño de la población (o si el muestreo se hace con reposición), se puede decir que X tiene aproximadamente una distribución binomial con parámetros n , p = k / N
      • Un vendedor está ante la alternativa de comprar o no un lote de 80 bombillos. El tendrá una pérdida de 150 por cada bombillo defectuoso y obtendrá una ganancia de 50 por cada bombillo no defectuoso. La proporción  de bombillos defectuosos en los lotes tiene la siguiente función de frecuencia: P(  =0.1)=0.4, P(  =0.2)=P(  =0.3)=0.3. El fabricante permitirá al vendedor examinar cada bombillo por un valor de 35 no reembolsables y rechazar cualquier unidad defectuosa sin costo adicional alguno para el vendedor; cualquier unidad rechazada por el vendedor será sustituida por una unidad buena por el fabricante. En el caso de que el vendedor examine la muestra esta será de tamaño 2. ¿Cuál es la ganancia máxima que espera obtener el vendedor? ¿Cuál es su estrategia óptima?
      • Resolver utilizando muestreo hipergeométrico
      • Resolver utilizando muestreo binomial
      • Que pasaría si el costo de examinar cada bombillo es de 10?
      12. Decisiones con muestreo hipergeométrico y binomial
      • Con muestreo hipergeométrico:
      • A PRIORI: P(  = z ); donde  (estado de la naturaleza) es la proporción de defectuosos en el lote
      12. Decisiones con muestreo hipergeométrico y binomial z 0.1 0.2 0.3 P(  = z ) 0.4 0.3 0.3
      • VEROSIMILITUDES: P(x/  ); x = Número de artículos defectuosos en la muestra
      12. Decisiones con muestreo hipergeométrico y binomial
      • A POSTERIORI: P(  /x)
      12. Decisiones con muestreo hipergeométrico y binomial z 0.1 0.2 0.3 P(  = z / x = 0) 0,489374 0,289489 0,221137 P(  = z / x = 1) 0,244897 0,326531 0,428571 P(  = z / x = 2) 0,0861563 0,276918 0,636925
      • PROBABILIDADES TOTALES: P(x = j )
      12. Decisiones con muestreo hipergeométrico y binomial j 0 1 2 P(x = j ) 0,66114 0,297721 0,0411392
    • 13. Decisiones con muestreo binomial
      • USO DE LA DISTRIBUCION BETA:
      • La distribución Beta (  ,  ), que tiene por función de densidad:
      • Donde  y  son parámetros de forma.
      • Y se usa comúnmente para medir proporciones. En nuestro caso es una buena distribución para modelizar la “proporción” de defectuosos en un lote.
    • 13. Decisiones con muestreo binomial
      • USO DE LA DISTRIBUCION BETA:
      • Suponemos que la distribución a priori de los estados de la naturaleza es Beta (  ,  )
      • Y si suponemos además que el número X de resultados que tienen cierta característica (por ejemplo defectuosos), de entre dos características posibles, sigue una distribución binomial ( n,z ) , entonces se tiene por la fórmula de la probabilidad total (caso contínuo) que:
    • 13. Decisiones con muestreo binomial
      • USO DE LA DISTRIBUCION BETA:
      • Y por el teorema de Bayes (en su forma contínua diapositiva 87):
      • Así la distribución a posteriori de  es: BETA (  + j ,  + n - j )
      • Distribución A priori: Beta
      • + = Distribución A posteriori Beta
      • Muestreo Binomial
    • 13. Decisiones con muestreo binomial
      • Ejemplo: Una empresa tiene una máquina que llena frascos de aceite. Sea  la proporción de frascos mal llenados en un lote de producción. Un lote de producción consiste en 5000 frascos envasados, y el costo de llenar mal un frasco es de 4 u.m.. La empresa tiene la opción de contratar un experto que ajuste la máquina, a un costo de 300 más 2 por cada frasco mal envasado. En 20 lotes anteriores se observó el siguiente número de defectuosos:
      • El investigador supone que  , sigue una distribución Beta(2,78), (COMPROBAR SI ESTA SUPOSICION DEL INVESTIGADOR ES VALIDA)
      • La empresa tiene la posibilidad de examinar tres frascos para saber si ellos están bien o mal envasados antes de decidir si contratar o no al experto.
    • 13. Decisiones con muestreo binomial
      • ¿Es razonable la suposición a priori de que  sigue una distribución Beta(2,78) ?
      • Sin muestreo, ¿Cuál es la acción que debe tomarse? (contratar o no al experto)
      • Con muestreo, ¿Cuál es la acción que debe tomarse?
    • 13. Decisiones con muestreo binomial
      • Es razonable la suposición a priori de que  sigue una distribución  (2,78)
      • Utilizando la prueba de K-S: (comparar con los resultados de R)
      Máximo p-value = 0.6375, Si es razonable la distribución a priori
    • 13. Decisiones con muestreo binomial
      • Sin muestreo, ¿Cuál es la acción que debe tomarse?
      • Como: E(  )=0.025, y la función de pagos es:
      • Siendo a 1 = Contratar el experto, a 2 = No contratar el experto,
      óptimo Acción Costo esperado a 1 300 + 10000 E(  ) = 550 a 2 20000 E(  ) = 500
    • 13. Decisiones con muestreo binomial
      • Con muestreo, ¿Cuál es la acción que debe tomarse?
      • Las probabilidades de X son (evaluadas con probabilidad total):
      • Y la distribución a posteriori de  es Beta(2+ j , 81- j ), luego:
      • Y la tabla de costos esperados es ahora:
      Mínimo j = 0 j = 1 j = 2 j = 3 P ( X = j ) 0.927733 0.0695799 0.00264228 0.0000451671 Costo esperado (a posteriori) Acción j = 0 j = 1 j = 2 j = 3 a 1 540.964 661.446 781.928 902.41 a 2 481.928 722.892 963.855 1204.82
    • 13. Decisiones con muestreo binomial
      • Con muestreo, ¿Cuál es la acción que debe tomarse?
      • Si al menos uno de los frascos de la muestra resulta mal envasado, la empresa debe contratar un experto para ajustar la máquina, mientras que si en la muestra no aparecen frascos mal envasados, no se debe contratar experto alguno
    • 14. Uso de la distribución normal
      • Muchas veces se tienen distribuciones normales, o por su defecto puede aproximarse asintóticamente por una distribución normal, por ejemplo si la población es binomial (esto es, solo tiene dos características distinguibles: defectuoso - no defectuoso, a tiempo – con retraso, etc.). Sea X i la variable:
      • Dada la muestra aleatoria: X 1 , X 2 , …, X n , según el teorema del Límite Central, se tiene que:
    • 14. Uso de la distribución normal
      • A priori: Si la distribución a priori del estado  =  de la naturaleza es:
      • Y sea y = x 1 , x 2 , …, x n una muestra aleatoria de una población con distribución , así se tiene:
      • Verosimilitud:
      • A posteriori:
    • 14. Uso de la distribución normal
    • 14. Uso de la distribución normal
    • 14. Uso de la distribución normal
      • Así:
      • Es decir, la distribución a posteriori de  es:
      • Así cuando la distribución a priori del estado de la naturaleza  es normal, y el muestreo se realiza sobre una población con distribución normal, la distribución a posteriori de  es normal también.
    • 14. Uso de la distribución normal
      • Consideremos una empresa que piensa modernizar la maquinaria que tiene. Actualmente dispone de la oferta de un fabricante Chino, que ofrece una maquinaria que produce regularmente cierta cantidad de unidades defectuosas, la tabla siguiente muestra los costos diarios para los dos tipos de maquinaria. Un trabajo de producción en la maquinaria consiste en la elaboración de lotes de 1000 unidades, y el costo de una unidad defectuosa es de 3$. La empresa tiene la opción de contratar una cobertura especial, por 200$ por lote producido, por medio de la cual las unidades defectuosas son reemplazadas. El fabricante permitió a la empresa realizar una corrida de producción de 20 lotes, con el siguiente número de unidades defectuosas producidas (suponer normalidad del número de unidades defectuosas producidas, con la varianza estimada a partir de los datos y la media desconocida):
      • La empresa consiguió información de 12 empresas que usaron el mismo tipo de maquinaria que elaboraron 10 lotes, cada uno de 1000 partes. Sea X i ( i = 1,2, …, 10) el número de partes defectuosas del i -ésimo lote. Determinar el costo mínimo que espera conseguir la empresa, considerando que la distribución del número de partes defectuosas producidas por la máquina ofrecida sigue una distribución normal con media  y varianza 25, y que en experiencias de producciones anteriores el número de piezas defectuosas por lote fueron:
      17 40 55 34 26 40 46 35 46 51 44 37 32 23 33 38 19 44 0 69
    • 14. Uso de la distribución normal Mes Defectuosos por lote 1 32 22 37 48 47 52 13 33 46 24 2 41 20 43 43 46 53 24 38 42 34 3 42 28 33 28 46 35 56 31 21 20 4 38 29 28 37 46 28 40 38 29 43 5 56 37 52 21 20 21 36 20 18 15 6 46 43 28 36 31 36 36 28 28 23 7 46 40 61 45 26 42 42 39 43 42 8 37 42 30 27 32 40 34 27 39 20 9 48 27 55 50 42 32 30 29 51 40 10 35 27 29 33 18 35 48 32 30 30 11 30 44 48 25 43 25 46 32 44 33 12 30 34 25 25 44 31 55 45 37 39
    • 14. Uso de la distribución normal
      • Obtener los promedios muestrales de unidades defectuosas por cada mes y establecer una distribución a priori normal para el promedio de unidades defectuosas entregadas.
      • Establecer la distribución a posteriori de  .
      • Calcular los costos esperados sin la contratación de la cobertura y con la contratación de la cobertura.
    • 15. Tamaño óptimo de la muestra
      • El muestreo cumple un importante papel en la toma de decisiones
      • Se busca determinar el tamaño óptimo de la muestra N .
      • A cada muestra se asocia un valor crítico c , el cual indica que si hay en la muestra por lo menos c elementos que poseen cierta característica, se adopta una acción, y otra acción sino. Cuando no se toma una muestra se considera N = c = 0.
      • Para determinar N se calcula el pago esperado y el valor crítico para un tamaño n de la muestra, luego el costo del muestreo, se le resta a este pago (si indica ganancia). Este procedimiento se hace para valores de n = 0, 1, 2, 3, … El tamaño de la muestra que da lugar al mejor pago esperado total es el tamaño óptimo N buscado.
    • 15. Tamaño óptimo de la muestra
      • Ejemplo: El dueño de un almacén está considerando la compra de 50 focos a un costo unitario de 9$ para venderlos a un precio de 11 $ por unidad; cuando un bombillo sale defectuoso el dueño pierde lo que pagó por él. Se conoce (por lo sucedido con lotes anteriores) que el 10% o el 30% de los bombillos es defectuoso con frecuencias de 0.8 y 0.2 respectivamente. Con el fin de adoptar una decisión el dueño puede inspeccionar cada foco a un costo de 0.30. Se desea conocer cuál es el tamaño de la muestra que maximiza su ganancia esperada.
      • Cuando el dueño saca una muestra de tamaño n , hay la posibilidad de obtener 0, 1, …, n focos defectuosos. En base al resultado decide a 1 : comprar el lote, a 2 : no comprarlo.
      • El número de focos defectuosos tiene aprox. una distribución binomial ( n ,  ) siendo  la proporción de defectuosos en el lote .
      • Para establecer el tamaño óptimo de la muestra que debe tomar el dueño del almacén se encuentra el pago esperado con información muestral cuando se toman muestras de tamaño 2, 3, 4, ..., para lo cual se pueden usar árboles o matrices estocásticas. Finalmente se tabulan los resultados de los pagos esperados, los valores críticos, los costos del muestreo y las ganancias resultantes para escoger entre estas la máxima y seleccionar así el tamaño muestral óptimo.
    • n=2
    • 15. Tamaño óptimo de la muestra Ganancia esperada Optima Tamaño óptimo Tabla de información para hallar el tamaño muestral óptimo Tamaño de la muestra Valor crítico Ganancia esperada Costo de la muestra Ganancia total 0 0 23.00 0 23.00 1 1 23.30 0.30 23.00 2 2 23.81 0.60 23.21 3 2 24.80 0.90 23.90 4 2 25.65 1.20 24.45 5 2 26.20 1.50 24.70 6 2 26.43 1.80 24.63 7 3 26.66 2.10 24.56
    • 16. Procesos de decisión Markovianos VER DESARROLLO EN CLASE