• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
DISTRIBUCIONES COMUNMENTE USADAS
 

DISTRIBUCIONES COMUNMENTE USADAS

on

  • 977 views

 

Statistics

Views

Total Views
977
Views on SlideShare
977
Embed Views
0

Actions

Likes
0
Downloads
14
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    DISTRIBUCIONES COMUNMENTE USADAS DISTRIBUCIONES COMUNMENTE USADAS Document Transcript

    • UNIVERSIDAD TECNOLÓGICA DE TORREON EstadísticaDISTRIBUCIONES COMUNEMENTE USADAS Bernoulli Binomial Poisson Normal Gamma T Student ROSA HELIDA YANETH MEZA REYES
    • DISTRIBUCIONES COMUNMENTE USADAS. INTRODUCCIONLa inferencia estadística consiste en extraer una muestra de una población yanalizar sus datos con el propósito de aprender acerca de ello. Muchas veces setiene un conocimiento superficial de la función de masa de probabilidad o de lafunción de densidad de probabilidad de la población. En estos casos la función demasa o de densidad de probabilidad se aproxima mediante una de muchasfamilias comunes de curvas o funciones. En este capítulo se describen algunas deestas funciones comunes y las condiciones en que es apropiado utilizar cada una. DISTRIBUCION DE BERNOULLIImagine un experimento que tenga dos resultados. Al primero se le llama “éxito” yal otro “fracaso”. La probabilidad de éxito se denota por p. por consecuencia, laprobabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli conprobabilidad de éxito p. El más sencillo de este tipo es el lanzamiento al aire deuna moneda. Los posibles resultados son “cara” o “cruz”. Si “cara” se define comoéxito, entonces p constituye esa probabilidad. En una moneda, P= ½. Otro ejemplode ese ensayo es la selección de un componente a partir de una población decomponentes, pero algunos están defectuosos. Si se define como “éxito” a uno deestos, entonces p significa la proporción de componentes defectuosos en lapoblación.Para cualquier ensayo de Bernoulli se define a la variable aleatoria X asi: si elexperimento propicia “éxito”, entonces X=1. De lo contrario, X=0. De ahí que Xsea una variable aleatoria discreta, con función de masa de probabilidad p(x)definida por. p(0)= P(X=0)=1-p p(1)= P(X=1)=p p(x)=0 para cualquier valor de x diferente a 0 o 1Se dice que la variable aleatoria X sigue una distribución de Bernoulli conparámetro P. La notación es X~ Bernoulli (p). La figura muestra histograma deprobabilidad para las funciones de masa de probabilidad de Bernoulli (0.5) y deBernoulli (0.8).
    • MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DE BERNOULLIEs fácil calcular la media y la varianza de una variable aleatoria Bernoulli. Si X~ Bernoulli (p), entonces, al usar las ecuaciones (2.29) y (2.30) se calcula: μx= (0)(1-p)+(1)(p) =p Resumen Si X~ Bernoulli (p), entonces μx =p
    • LA DISTRIBUCION BINOMIALExtraer un solo componente de una población y determinar si está o no defectuosoes ejemplo de un ensayo de Bernoulli. En la práctica, es posible extraer varioscomponentes de una gran población y contar el número de elementosdefectuosos. Esto implica realizar diversos ensayos de Bernoulli independientes ycontar el número de éxitos. El número de éxitos es una variable aleatoria, quetiene una Distribución binomial.Ahora se presenta una descripción formal de la distribución binomial. Suponga quese lleva a cabo una serie de n ensayos de Bernoulli, cada uno con la mismaprobabilidad de éxito p. además, suponga que los ensayos son independientes;esto es, que el resultado de un ensayo no influye en los resultados de alguno delos otros ensayos. Sea la variable aleatoria X igual al número de éxitos en Nensayos, entonces X tiene la distribución binomial con parámetros n y p. lanotación es X~Bin(n,p ).X es una variable aleatoria discreta y sus posibles valoresson 0,1,…, n.Si se realiza un total de n ensayos de Bernoulli y siLos ensayos son independientesCada ensayo tiene la misma probabilidad de éxito pX es el número de éxitos en los n ensayos.Entonces X tiene la distribución binomial con parámetros n y p, que se denotacomo X~ Bin(n, p).La media y varianza de una variable aleatoria binomial
    • LA DISTRIBUCIÓN DE POISSONLa distribución de poisson se utiliza con frecuencia en el trabajo científico. Unamanera de considerarla es como una aproximación de la distribución binomialcuando n es grande y p es pequeña. Esto último se muestra con un ejemplo.Una masa contiene 10000 átomos de una sustancia radiactiva. La probabilidad deque cierto átomo decaiga en un periodo de un minuto es de 0.0002. Sea X elnúmero de átomos que decae en un minuto. Se puede considerar a cada átomocomo un ensayo de Bernoulli, en los que el éxito ocurre si el átomo decae. Portanto, X es el numero de éxitos en 10 000 ensayos de Bernoulli de3 X es Bin(10000,0.0002). La media de X es µx= (10000) (0.0002)=2.Otra masa contiene 5000atomos y cada uno de estos tiene probabilidad de 0.0004de decaer en un intervalo de un minuto. Sea él Y el número de átomos de estamasa que decae en un minuto. Siguiendo la lógica del párrafo anterior, X~Bin(5000,0.0004) y µY= (5000) (0.0004)=2.En cada uno de estos casos, el número de ensayos n y la probabilidad de éxito pson diferentes, pero el número promedio de éxitos, que es igual al producto np, esel mismo. Ahora suponga que se quiere calcular la probabilidad de que solo tresátomos decaigan en un minuto para cada una de estas masas. Mediante lafunción de masa de probabilidad binomial, se calcula de la siguiente manera:P(X=3)P (Y=3)=Estas probabilidades sin casi iguales entre sí. Aunque a partir de la formula de lafunción de masa de probabilidad binomial esto no es obvio, cuando n es grande yp es pequeña la función de nada depende por completo de la media np, y muypocos de los valores específicos de n y p. por consiguiente, se puede aproximar lafunción de masa binomial con una cantidad que dependa solo del producto np.Específicamente, si n es grande y p es pequeña, y λ=np, se puede demostrarmediante métodos avanzados que para todas las x.Esto conduce a la definición de una nueva función de probabilidad, denominadafunción de masa de probabilidad de poisson, que se define medianteP(x)= P(X=x)= { si x es un entero no negativo de otro modo
    • Si X es una variable aleatoria cuya función de masa de probabilidad esta dad porla ecuación, entonces X sigue una distribución de poisson con parámetro λ. Lanotación es X~Poisson (λ). MEDIA Y VARIANZA DE UNA VARIABLE ALEATORIA DE POISSONPara calcular la media y la varianza de una variable aleatoria de poisson, seemplea la función de masa de probabilidad junto con las definiciones dadas por lasecuaciones. Aquí se presenta un enfoque intuitivo. Si X~ Poisson (λ) se puedeconsiderar X como una variable aleatoria binomial es np, se tiene que la media deuna variable aleatoria de Poisson es λ. La varianza de una variable aleatoriabinomial es np (1-p). Puesto que p es muy pequeña, se puede reemplazar 1-p con1, y concluir que la varianza de una variable aleatoria de Poisson es np=λ.Si X~ Poisson (λ), entonces la media y la varianza de X están dadas por{ µx= λ
    • DISTRIBUCIÓN NORMALLa distribución normal también conocida como distribución Gauss es ladistribución más utilizada en la estadística. Constituye un buen modelo paramuchas, aunque no para todas las poblaciones continuas. Parte de esto último sedebe al teorema del límite central.La distribución normal es continua en vez de discreta. La media de una variablealeatoria normal puede tener cualquier valor y la varianza cualquier valor positivo.La función de densidad de probabilidad de una variable aleatoria normal puedetener cualquier valor y la varianza cualquier valor positivo. La función de densidadde probabilidad de una variable normal con media µ y varianza .La gráfica de su función de densidad tiene una forma acampanada y es simétricarespecto de un determinado parámetro. Esta curva se conoce como campana deGauss y e es el gráfico de de una función gaussiana.Ejemplo de alguna grafica seria:
    • DISTRIBUCIÓN GAMMALa distribución gammas es una distribución continua, uno de sus propósitos esampliar la utilidad de la distribución exponencial en el modelado de tiempos deespera. La función de densidad de probabilidad gamma tiene dos parámetros, r y λque son caracteres positivosSi X es una variable aleatoria cuya función de densidad de probabilidad gammacon parámetros r y λCuando α = 1, la función de densidad gamma se denomina distribuciónexponencial. Esta importante función de densidad se emplea como modelo para ladistribución de frecuencias relativa del tiempo entre llegadas a un mostrador deservicio (centros de cómputo, caja de súper mercado, clínica hospitalaria, etc.)Cuando la probabilidad de que un cliente llegue en cierta unidad de tiempo esigual a la probabilidad de que llegue en cualquier otra. La función también seutiliza como modelo para la duración de equipos o productos industriales cuandola probabilidad de que un componente viejo opere por lo menos t unidades detiempo adicionales, dado que está funcionando ahora. Es igual a la probabilidadde que un componente nuevo opere al menos t unidades de tiempo. El equiposujeto a mantenimiento periódico y recambio de piezas a menudo exhibe estapropiedad de nunca envejecer.
    • Cuando el parámetro r es un entero la distribución gamma es una extensióndirecta de la distribución exponencial. Para ser más específicos, recuerde que silos eventos seguían un proceso de poisson con parámetro con parámetro derazón λ el tiempo de espera hasta que ocurriera un evento se distribuía comoexp(λ). Si r es cualquier entero positivo, entonces el tiempo espera hasta que hayaocurrido r eventos se distribuye como.
    • DISTRIBUCIÓN T (DE STUDENT)Es una distribución de probabilidad que surge del problema de estimar la media deuna población normalmente distribuida cuando el tamaño de la muestra espequeño. Aparece de manera natural al realizar la prueba t de Student para ladeterminación de las diferencias entre dos medias muéstrales y para laconstrucción del intervalo de confianza para la diferencia entre las medias de dospoblaciones cuando se desconoce la desviación típica de una población y éstadebe ser estimada a partir de los datos de una muestra.La distribución t de Student es la distribución de probabilidad del cociente Donde  Z tiene una distribución normal de media nula y varianza 1  V tiene una distribución ji-cuadrado con grados de libertad  Z y V son independientes Si μ es una constante no nula, el cociente es una variable aleatoria que sigue la distribución t de Student no central con parámetro de no- centralidad .Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas 2normalmente, con media μ y varianza σ . Sea La media muestral. EntoncesSigue una distribución normal de media 0 y varianza 1.
    • Sin embargo, dado que la desviación estándar no siempre es conocida deantemano, Gosset estudió un cociente relacionado, Dondees la varianza muestral y demostró que la función de densidad de T esDonde es igual a n − 1.La distribución de T se llama ahora la distribución-t de Student.El parámetro representa el número de grados de libertad. La distribucióndepende de , pero no de o , lo cual es muy importante en la prácticaEl procedimiento para el cálculo del intervalo de confianza basado en la t deStudent consiste en estimar la desviación típica de los datos S y calcular el errorestándar de la media , siendo entonces el intervalo de confianza para lamedia = .Es este resultado el que se utiliza en el test de Student: puesto que la diferenciade las medias de muestras de dos distribuciones normales se distribuye tambiénnormalmente, la distribución t puede usarse para examinar si esa diferencia puederazonablemente suponerse igual a cero. Para efectos prácticos el valor esperado yla varianza son: E (t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3