Procesos industriales área manufactura

1,161 views
1,036 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,161
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
4
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Procesos industriales área manufactura

  1. 1. Procesos Industriales Área ManufacturaMateria: EstadísticaTema: ProbabilidadDocente: Lic. Edgar Gerardo Mata OrtizALUMNO :Yovana Marin de la Fuente 18/mar/2012
  2. 2. DISTRIBUCIÓN DE PROBABILIDADUna distribución de probabilidad indica toda la gama de valores que puedenrepresentarse como resultado de un experimento si éste se llevase a cabo. Es decir, describe la probabilidad de que un evento se realice en el futuro,constituye una herramienta fundamental para la prospectiva, puesto que se puedediseñar un escenario de acontecimientos futuros considerándolas tendenciasactuales de diversos fenómenos naturales. DISTRIBUCIÓN DE BERNOULLILa distribución de Bernoulli (o distribución dicotómica), nombrada así por elmatemático y científico suizo Jakob Bernoulli, es una distribución de probabilidaddiscreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para laprobabilidad de fracaso ( ).Si es una variable aleatoria que mide "número de éxitos", y se realiza un únicoexperimento con dos posibles resultados (éxito o fracaso), se dice que lavariable aleatoria se distribuye como una Bernoulli de parámetro .La fórmula será:Su función de probabilidad viene definida por:Un experimento al cual se aplica la distribución de Bernoulli se conoce comoEnsayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos comoensayos repetidos.Ejemplo:
  3. 3. "Lanzar un dado y salir un 6".Cuando lanzamos un dado tenemos 6 posibles resultados:Estamos realizando un único experimento (lanzar el dado una sola vez).Se considera éxito sacar un 6, por tanto, la probabilidad según el teorema deLaplace (casos favorables dividido entre casos posibles) será 1/6.Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacarcualquier otro resultado.La variable aleatoria X medirá "número de veces que sale un 6", y solo existen dosvalores posibles, 0 (que no salga 6) y 1 (que salga un 6).Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parámetro= 1/6La probabilidad de que obtengamos un 6 viene definida como la probabilidad deque X sea igual a 1.La probabilidad de que NO obtengamos un 6 viene definida como la probabilidadde que X sea igual a 0. DISTRIBUCIÓN BINOMIAL • La distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de BERNOULLI
  4. 4. independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. • Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p). • Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos. • Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de probabilidad binomial, y se denota B(n,p) • Ejemplo • Supongamos que se lanza un dado 50 veces y queremos la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sería P(X=20): • DISTRIBUCIÓN POISSONLa Distribución de Poisson se llama así en honor a Simeón Dennis Poisson (1781-1840), francés que desarrolló esta distribución basándose en estudios efectuadosen la última parte de su vida.La distribución de Poisson se emplea para describir varios procesos, entre otros ladistribución de las llamadas telefónicas que llagan a un conmutador, la demanda(necesidades) de servicios en una institución asistencial por parte de lospacientes, los arribos de los camiones y automóviles a la caseta de cobro y elnúmero de accidentes en un cruce. Los ejemplos citados tienen un elemento encomún, pueden ser descritos por una variable aleatoria discreta que asumevalores enteros (0,1,2,3,4,5 y así sucesivamente).El número de enfermos que llegan a un consultorio en cierto intervalo de tiemposerá de 0,1,2,3,4,5 o algún otro número entero. De manera análoga, si se cuentael número de automóviles que llegan a una caseta de cobro durante un periodo dediez minutos, el número será entero.
  5. 5. Características de los procesos que producen una distribución de la probabilidadde Poisson.El número de vehículos que pasan por una caseta de cobro en las horas de mayortráfico sirve como ejemplo para mostrar las características de una distribución deprobabilidad de Poisson.El promedio (media) de los arribos de vehículos por hora de gran tráfico puedeestimarse a partir de los datos anteriores del tráfico.Cálculo de probabilidades mediante la distribución de Poisson.La distribución de Poisson, según hemos señalado, se refiere a ciertos procesosque pueden ser descritos con una variable aleatoria discreta. La letra X suelerepresentar esa variable y puede además asumir valores enteros (0,1,2,3 etc..) .Utilizamos la letra X mayúscula para representar la variable aleatoria y la xminúscula para designar un valor específico que puede asumir la X mayúscula. Laprobabilidad de exactamente x ocurrencias en una distribución de Poisson secalcula mediante la fórmula:P(x) = l x * e-l / x!l x = Lambda(número medio de ocurrencias por intervalo de tiempo) elevada a la potencia x.e-l = e= 2.71828 elevado a la potencia de lambda negativa.x! = x factorial.Ejemplo :Supóngase que estamos investigando la seguridad de un crucero muy peligroso.Los archivos de la policía indican una media de cinco accidentes por mes en él. Elnúmero de accidentes está distribuido conforme a la distribución de Poisson, y ladivisión de seguridad en carreteras quiere calcular la probabilidad de exactamente0,1,2,3 y 4 accidentes en un mes determinado.
  6. 6. Aplicando la fórmula anterior:P(0) = (5)0 (e-5) /0! = 0.00674P(1) = (5)1 (e-5) /1! = 0.03370P(2) = (5)2 (e-5) /2! = 0.08425P(3) = (5)3 (e-5) /3! = 0.14042P(4) = (5)4 (e-5) /4! = 0.17552Para saber cual es la probabilidad en 3 o menos, sumaremos las probabilidadesde 0,1,2,3 lo que será igual a :P(0) = 0.00674P(1) = 0.03370P(2) = 0.08425P(3) = 0.14042P(3 o menos) = 0.26511Dado que la probabilidad de que haya 3 o menos accidentes es de 0.26511entonces la probabilidad de que ocurran más de tres debe ser = 1 –0.26511 =0.73489.La distribución de Poisson como una aproximación a la distribución binomial.Algunas veces, si se desea evitar el tedioso trabajo de calcular las distribucionesbinomiales, se puede usar a cambio la de Poisson, pero debe cumplir con ciertascondiciones como :n=>20p=<0.05En los casos en que se satisfacen tales condiciones, podemos sustituir la media
  7. 7. de la distribución binomial en lugar de la media de la distribución de Poisson demodo que la fórmula quedaría así:P(x) = (np) X * e-np /x! DISTRIBUCIÓN NORMALEn estadística y probabilidad se llama distribución normal, distribución de Gauss odistribución gaussiana, a una de las distribuciones de probabilidad de variablecontinua que con más frecuencia aparece aproximada en fenómenos reales.La gráfica de su función de densidad tiene una forma acampanada y es simétricarespecto de un determinado parámetro. Esta curva se conoce como campana deGauss y e es el gráfico de de una función gaussiana.La importancia de esta distribución radica en que permite modelar numerososfenómenos naturales, sociales y psicológicos. Mientras que los mecanismos quesubyacen a gran parte de este tipo de fenómenos son desconocidos, por laenorme cantidad de variables incontrolables que en ellos intervienen, el uso delmodelo normal puede justificarse asumiendo que cada observación se obtienecomo la suma de unas pocas causas independientes.De hecho, la estadística es un modelo matemático que sólo permite describir unfenómeno, sin explicación alguna. Para la explicación causal es preciso el diseñoexperimental, de ahí que al uso de la estadística en psicología y sociología seaconocido como método correlacionar.La distribución normal también es importante por su relación con la estimación pormínimos cuadrados, uno de los métodos de estimación más simples y antiguos.
  8. 8. Algunos ejemplos de variables asociadas a fenómenos naturales que siguen elmodelo de la normal son: caracteres morfológicos de individuos como la estatura; caracteres fisiológicos como el efecto de un fármaco; caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicológicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc.La distribución normal también aparece en muchas áreas de la propia estadística.Por ejemplo, la distribución muestral de las medias muéstrales esaproximadamente normal, cuando la distribución de la población de la cual seextrae la muestra no es normal.1 Además, la distribución normal maximiza laentropía entre todas las distribuciones con media y varianza conocidas, lo cual laconvierte en la elección natural de la distribución subyacente a una lista de datosresumidos en términos de media muestral y varianza. La distribución normal es lamás extendida en estadística y muchos test estadísticos están basados en unasupuesta "normalidad".En probabilidad, la distribución normal aparece como el límite de variasdistribuciones de probabilidad continuas y discretas. DISTRIBUCIÓN GAMMAEn estadística la distribución gamma es una distribución de probabilidad continuacon dos parámetros k y λ cuya función de densidad para valores x > 0 esAquí e es el número e y Γ es la función gamma. Para valores la aquella es Γ(k) =(k − 1)! (el factorial de k − 1). En este caso - por ejemplo para describir un procesode Poisson - se llaman la distribición distribución Erlang con un parámetro θ = 1 /λ.El valor esperado y la varianza de una variable aleatoria X de distribución gammason E[X] = k / λ = kθ V[X] = k / λ2 = kθ2La formula para la función de densidad gamma contiene dos parámetros α y β. Elparámetro β llamado parámetro de escala, refleja el tamaño de las unidades enque se mide y es parámetro α se conoce como parámetro de forma, si se modifica
  9. 9. su valor cambia la forma de la distribución gamma, esto nos permite obtenerfunciones de densidad de muchas formas distintas para modelar distribuciones defrecuencia relativa de datos experimentales.La función de densidad de probabilidad de una variable tipo gama esta dada poren donde αCuando α = 1, la función de densidad gamma se denomina distribuciónexponencial. Esta importante función de densidad se emplea como modelo para ladistribución de frecuencias relativa del tiempo entre llegadas a un mostrador deservicio (centros de cómputo, caja de súper mercado, clínica hospitalaria, etc.)Cuando la probabilidad de que un cliente llegue en cierta unidad de tiempo esigual ala probabilidad de que llegue en cualquier otra. La función también se utilizacomo modelo para la duración de equipos o productos industriales cuando laprobabilidad de que un componente viejo opere por lo menos t unidades de tiempoadicionales, dado que esta funcionando ahora. Es igual a la probabilidad de queun componente nuevo opere al menos t unidades de tiempo. El equipo sujeto amantenimiento periódico y recambio de piezas a menudo exhibe esta propiedadde nunca envejecer. DISTRIBUCIÓN T STUDENTEn probabilidad y estadística, la distribución t (de Student) es una distribución deprobabilidad que surge del problema de estimar la media de una poblaciónnormalmente distribuida cuando el tamaño de la muestra es pequeño. Surge, en lamayoría de los estudios estadísticos prácticos, cuando la desviación típica de unapoblación se desconoce y debe ser estimada a partir de los datos de una muestra.Existen dos versiones de la prueba t-Student: una que supone que las varianzaspoblacionales son iguales y otra versión que no asume esto último. Para decidir sise puede suponer o no la igualdad de varianza en las dos poblaciones, se deberealizar previamente la prueba F-Snedecor de comparación de dos varianzas.Un poco de historia.La prueba t-Student fue desarrollada en 1899 por el químico inglés William SealeyGosset (1876-1937), mientras trabajaba en técnicas de control de calidad para lasdestilerías Guiness en Dublín . Debido a que en la destilería, su puesto de trabajono era inicialmente de estadístico y su dedicación debía estar exclusivamente
  10. 10. encaminada a mejorar los costes de producción, publicó sus hallazgosanónimamente firmando sus artículos con el nombre de "Student".La distribución t de Student es la distribución de probabilidad del cociente:dondeZ tiene una distribución normal de media nula y varianza 1V tiene una distribución chi-cuadrado con ν grados de libertadZ y V son independientesSi μ es una constante no nula, el cociente es una variable aleatoria que sigue ladistribución t de Student no central con parámetro de no-centralidad μ.Intervalos de confianza derivados de la distribución t de StudentEl procedimiento para el cálculo del intervalo de confianza basado en la t deStudent consiste en estimar la desviación típica de los datos S y calcular el errorestándar de la media= S/(raíz cuadrada de n), siendo entonces el intervalo deconfianza para la media = x media +- t (alfa/2) multiplicado por (S/(raíz cuadradadade n)).Es este resultado el que se utiliza en el test de Student: puesto que la diferenciade las medias de muestras de dos distribuciones normales se distribuye tambiénnormalmente, la distribución t puede usarse para examinar si esa diferencia puederazonablemente suponerse igual a cero.para efectos prácticos el valor esperado y la varianza son :E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para > 3

×