• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Grupo 2
 

Grupo 2

on

  • 4,446 views

PROBABILIDADES

PROBABILIDADES

Statistics

Views

Total Views
4,446
Views on SlideShare
4,445
Embed Views
1

Actions

Likes
1
Downloads
42
Comments
0

1 Embed 1

http://www.slideshare.net 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Grupo 2 Grupo 2 Document Transcript

    • 375285-46418500<br />FACULTAD DE CIENCIAS ECONOMICAS<br />TRABAJO DE ESTADÍSTICA<br />CURSO<br />COMUNES 02 08<br />PROFESORA<br />ECO. LUCIA DOMINGUEZ<br />INTEGRANTES<br />DANIEL MORALES<br />ADRIAN SANCHEZ<br />PAOLA SANMARTÍN<br />ERIKA SEGARRA<br />TANNYA CASTILLO<br />FECHA: <br />16/JUNIO/2011<br />INTRODUCCIÓN.<br />Una distribución de probabilidad indica toda la gama de valores que pueden representarse como resultado de un experimento. Una distribución de probabilidad es similar a la distribución de frecuencias relativas .Si embargo, en vez de describir el pasado, describe la probabilidad que un evento se realice en el futuro, constituye una herramienta fundamental para la prospectiva, puesto que se puede diseñar un escenario de acontecimientos futuros considerando las tendencias actuales de diversos fenómenos naturales.<br />Las decisiones estadísticas basadas en la estadística inferencial son fundamentales en la investigación que son evaluadas en términos de distribución de probabilidades.<br />En el presente trabajo, se estudia de manera ágil los diversos tipos de distribución probabilística, caracterizaremos cada distribución, examinaremos el concepto de variable aleatoria tanto discreta como continua, la esperanza matemática y medidas de variabilidad.<br />VARIABLE ALEATORIA<br />Se llama variable aleatoria a toda función que asocia a cada elemento del espacio muestral E un número real.<br />Se utilizan letras mayúsculas X, Y, .. para designar variables aleatorias, y las respectivas minúsculas (x, y, ...) para designar valores concretos de las mismas. Las variables aleatorias se clasifican en dos tipos: discretas o continuas.<br />Variable aleatoria discreta<br />Variable aleatoria discreta.- Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo puede tomar valores enteros finitos o infinitamente numerables y resulta de datos contados como por ejemplo: Numero de artículos defectuosos, numero de accidentes de carretera por año en un estado dado.<br />Variable aleatoria continua<br />Variable aleatoria continua.- Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y continua porque puede tomar todos los valores posibles dentro de un cierto intervalo de la recta real y porque hay infinitos valores posibles de la variable y entra cada dos de ellos se podrían definir infinitos valores , representan datos medidos, como son los posibles pesos, alturas, temperaturas, distancias o periodos de vida. <br />Ejemplos:<br />El tiempo necesario para completar el ensamblaje de un artículo en una planta.<br />La cantidad de petróleo bombeado cada hora en un pozo.<br />La cantidad en miligramos de monóxido de carbono contenido en un metro cúbico de aire.<br />La cantidad de energía eléctrica producida en una planta hidroeléctrica en un día.<br />Es importante la diferencia que se hace entre las variables aleatorias discretas y continuas ya que se requieren modelos probabilísticos distintos para cada uno de ellas. Las probabilidades asociadas a cada valor posible de una variable discreta suman 1 lo cual no es posible para las continuas. En las dos secciones que siguen. Se consideran por separado las distribuciones de probabilidad para las variables aleatorias discretas y continuas.<br />DISTRIBUCIÓN PROBABILISTICA<br />Definición.- Una distribución de probabilidad es una tabla que muestra todos los resultados posibles de un experimento y la probabilidad de cada resultado. Una distribución de probabilidad es similar a la distribución de frecuencias relativas .Si embargo, en vez de describir el pasado, describe la probabilidad que un evento se realice en el futuro<br />¿Cómo generamos una distribución de probabilidad?<br />Supongamos que se quiere saber el número de caras que se obtienen al lanzar cuatro veces una moneda al aire<br />Los posibles resultados son: cero caras, una cara, dos caras, tres caras y cuatro caras.<br />Si realizamos el experimento obtenemos el siguiente espacio muestral:<br />A=(cccc,cccs,ccsc,ccss,cscc,cscs,cssc,csss,sccc,sccs,cscs,scss,sscc,sscs,sssc,sscs)<br />n(A)= 16<br />NUMERO DE CARASFRECUENCIADISTRIBUCIÓN DE PROBABILIDADES011/16144/16266/16344/16411/16<br />Es un modelo teórico que describe la forma en que varían los resultados de un experimento aleatorio, es decir, nos da todas las probabilidades de todos los posibles resultados que podrían obtenerse cuando se realiza un experimento aleatorio. Se clasifica como discretas o continuas. <br />DISTRIBUCIÓN DE PROBABILIDAD PARA UNA VARIABLE ALEATORIA DISCRETA<br />En estadística la distribución de probabilidad para una variable aleatoria discreta X es una tabla, gráfica o fórmula que da la probabilidad P(X = x) asociada a cada posible valor de X. <br />¿Como hacer una distribución de probabilidad discreta?<br />Una moneda se lanza tres veces. Escriba el espacio muestral del experimento y los valores de la variable aleatoria x, donde:<br />a. x es el número de caras.<br />b. x es la diferencia entre el número de caras y el número de cruces.<br />Paso 1 Escribe el espacio muestral del experimento.<br />S = {HHH, HHT, HTH, HTT, THH, THT, TTH, TTT}.<br />Paso 2 Identifica la variable aleatoria.<br />Variable Aleatoria (x): Número de caras.<br />Paso 3 Para cada resultado en el espacio muestral, asigna un valor numérico a la variable aleatoria.<br />S = {HHH, HHT, HTH, HTT, THH, THT, TTH, TTT}<br /> 3 2 2 1 2 1 1 0<br />-812808064500Paso 4 Haz una tabla de dos columnas (filas). Identifica una columna como 'x' y la otra como 'p'. Completa la columna (fila) x listando todos los números asignados en el paso3.<br />X p<br />0<br />1<br />2<br />3<br />Paso 5 Utilizando el paso 3, calcula la probabilidad de cada numero y completa la columna (fila) p.5<br /> En el paso 3, 0 ocurre solamente una vez, su probabilidad = 1/8<br />1 ocurre 3 veces, su probabilidad = 3/8<br />2 ocurre 3 veces, su probabilidad = 3/8<br />3 ocurre una vez, su probabilidad = 1/8<br />Por lo tanto, la distribución de probabilidad discreta para la variable aleatoria x<br />Está dada por:<br />173900965500 x p<br />1/8<br />3/8<br />3/8<br />1/8<br />Requisitos para una distribución de probabilidad discreta <br />1. 0 ≤ p(x) ≤ 1 2. ∑ p(x) = 1<br />1 La probabilidad de un resultado siempre debe estar entre 0 y 1.2 La suma de todos los resultados mutuamente excluyentes siempre es 1.<br />Función de distribución acumulada<br />La Función de Distribución Acumulada corresponde a la probabilidad de que la variable aleatoria  tome un valor numérico menor o igual a , o representa el acúmulo de las probabilidades hasta alcanzar el valor de interés. Simbólicamente, lo anterior se expresa como:<br />Por ejemplo, ; es la probabilidad de que la variable aleatoria  tome el valor numérico menor o igual a 3.<br />La función de probabilidad acumulada  cumple con las siguientes propiedades:<br /> La gráfica de la función nunca decrece.<br />El valor de la función de probabilidad acumulada cuando el valor de la variable es demasiado grande se acerca a uno<br /> El valor de la función de probabilidad acumulada cuando el valor de la variable es demasiado pequeño se acerca a cero.<br />En el caso de variables aleatorias continuas, los libros presentan tablas de la distribución acumulada. Por ejemplo, para el caso de la variable aleatoria normal estándar, al ubicarnos en dicha tabla se observará en el cuerpo de esta, las probabilidades acumuladas para un valor dado de la variable aleatoria..<br />Utilizando la tabla de distribución normal anexa observe que si queremos determinar cual es la probabilidad acumulada hasta el valor  se debe observar el valor que intercepta la fila donde aparece el número  y el valor de la primera columna  el cual es ; es decir, la probabilidad de que la variable tome un valor menor o igual a  es; en símbolos es:<br />Análogamente la probabilidad acumulada hasta  es .<br />Observe que las propiedades de un distribución acumulada se presentan en esta tabla, ya que la probabilidad acumulada cuando el valor de la variable  es muy grande, tiende a uno y cuando este valor es muy pequeño tiende a cero. Además, como la función de probabilidad acumulada es una función de probabilidad, toma valores mayores o iguales que cero y menores o iguales a uno, observe los valores dentro de la tabla.<br />Ejemplo<br />La siguiente tabla muestra los valores de una variable discreta y algunas de sus probabilidades<br />x012345p(x)0.010.100.300.400.10?<br />a) La variable aleatoria X es discreta y los valores que toma son: <br />b) El valor de x de tal manera que la anterior tabla represente la distribución de probabilidad de la variable aleatoria  se obtiene aplicando la primera propiedad de una función de probabilidad de una variable aleatoria  ; es decir la suma de todas las probabilidades es uno. Luego<br />c) La probabilidad de que la variable tome al menos el valor 3, es<br />d) La probabilidad de que la la variable tome a lo más el valor   <br />DISTRIBUCIÓN DE PROBABILIDAD PARA UNA VARIABLE ALEATORIA CONTINUA<br /> Si la variable aleatoria es continua, hay infinitos valores posibles de la variable y entra cada dos de ellos se podrían definir infinitos valores. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable como se puede hacer en el caso de las variables discretas. Pero sí es posible calcular la probabilidad acumulada hasta un cierto valor (función de distribución) y cómo cambia esa probabilidad acumulada en cada punto (densidad de probabilidad). Por tanto, cuando la variable aleatoria sea continua hablaremos de función de densidad. <br /> Sea X una variable aleatoria continua, se llama función de densidad y se representa como f(x) a una función no negativa definida sobre la recta real, tal que para cualquier intervalo que estudiemos se verifica: <br />Α∀ P (XEA) = ∫ =Α∈ΧΡ .<br />MEDIDAS DE VARIBILIDAD<br />MEDIDAS DE CENTRALIZACIÓN<br />Esperanza Matemática<br />Históricamente, el concepto de esperanza matemática surgió de los juegos de azar, al intentar calcular la ganancia que un jugador esperaba tener tras cierto número de partidas. <br />En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria X, es el número  que formaliza la idea de valor medio de un fenómeno aleatorio<br />La formula es:<br />Para variable discreta Para variable continua<br />µ= E (x) = ∑[(xP(x)] E(x) = ∫ xi.f(xi)dx<br />Si la esperanza matemática es 1, el juego es justo. Por ejemplo, apostar 1 dólar a que una moneda sale cara o cruz, si el premio por acertar son 2 dólares, y si se pierde, 0 dólares. La esperanza del juego es 2 · (1/2) = 1. Entonces, consecuentemente con la teoría de juegos, podría pagar el dólar para jugar o para rechazar jugar, porque de cualquier manera su expectativa total sería 0.<br />Si la esperanza matemática es menor que 1, el juego es desfavorable para el jugador. Un sorteo que pague 500 a 1 pero en el que la probabilidad de acertar sea de 1 entre 1.000, la esperanza matemática es 500 · (1/1.000) = 0,5.<br />Si la esperanza matemática es mayor que 1, el juego es favorable para el jugador. Un ejemplo sería un juego en el que se paga 10 a 1 por acertar el número que va a salir en un dado, en donde hay una probabilidad de acertar es de 1 entre 6. En este ejemplo el valor de la esperanza matemática es 10 · (1/6)=1,67 y por tanto en esas condiciones es juego «beneficioso» para el jugador.<br />Variable aleatoria Discreta<br />Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.<br />La formula es:<br />µ= E (x) = ∑[(xP(x)]<br />Ejemplos<br />Si una persona compra un boleto de una rifa, en la que puede ganar de $5.000 ó un segundo premio de $2000 con probabilidades de: 0.001 y 0.003. ¿Cuál sería el precio justo a pagar por la papeleta?<br />E(x) = 5000 · 0.001 + 2000 · 0.003 = $11 <br />Un jugador lanza dos monedas. Gana 1 ó 2 dolares si aparecen una o dos caras. Por otra parte pierde 5 dólares si no aparece cara. Determinar la esperanza matemática del juego y si éste es favorable.<br />E = {(c,c);(c,x);(x,c);(x,x)} <br />p(+1) = 2/4 <br />p(+2) = 1/4 <br />p(−5) = 1/4 <br />E(x)= 1 · 2/4 + 2 · 1/4 - 5 · 1/4 = −1/4. Es desfavorable<br />Propiedades de la Esperanza Matemática<br />Al multiplicar todos los valores de una variable por una misma constante, el valor esperado de ésta queda multiplicado por el valor de la constante.<br />Al sumar a todos los valores de una variable una misma constante, el valor esperado de ésta queda incrementado por el valor de la constante.<br />Si tenemos dos variables X e Y, discretas o continuas, el valor esperado de su suma o diferencia es la suma o diferencia de sus valores esperados<br />E[X ± Y] = E[X] ± E[Y]<br />Si las variables anteriores, X e Y son variables aleatorias independientes ocurre que el valor esperado de su producto es igual al producto de sus valores esperados.<br />E[X Y] = E[X] E[Y]<br /> <br />Es importante indicar que la independencia de las variables es condición suficiente pero no necesaria para que el valor esperado del producto de dos variables sea igual al producto de sus valores esperados, es decir, ésta es una propiedad de las variables independientes pero se cumple en variables que no son independientes.<br />Mediana<br />La mediana de una variable aleatoria X es un valor Me tal que: <br />F (Me) ≥ ½; P(X ≥ ME) ≥ ½<br />Si x es una variable aleatoria continua entonces, la media de x es E[x]=∫f(x) (x dx)<br />En las variables continuas la mediana es 1/2<br />MEDIDAS DE DISPERSIÓN<br />Varianza<br />La varianza de una variable aleatoria X se define<br />σ2 = Var[X] = E [(X-E[X])2]<br />X discreta, σ2 = Var[X] = ∑(xi-µ)2p(xi)<br />X continua, σ2 = Var[X] = ∫(x-µ)2 f(x)dx<br />Describe el grado de dispersión de una distribución<br />Propiedades<br />Var[X]=E[X2]-E[X]2=E[X2]-µ2<br />Dados a, b є R y una variable aleatoria X, tenemos las siguientes propiedades de la varianza<br />Var[b]=0;<br />Var[aX]=a2Var[X];<br />Var[aX+b]=a2Var[X].<br />Si x es una variable continua con función de densidad f(x) la varianza de x es:<br />V [X]=∫f(x) (x-E [X])2 dx<br />Desviación típica<br />La desviación típica es la raíz cuadrada positiva de la varianza, σ = (Var [X])1/2<br /> <br />Distribuciones de variable discreta<br />Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de X finito o infinito numerable. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es el sumatorio de la función de masa, por lo que tenemos entonces que:<br />Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde hasta el valor x.<br />La distribución uniforme discreta<br />Es la más simple de todas las distribuciones en donde la variable aleatoria toma cada uno de sus valores como una probabilidad idéntica. Viene dado por:<br /> f(x;k)= 1 / k, x= x1,x2,…,xk.<br />Distribución binomial<br />En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli con una probabilidad fija p de ocurrencia del éxito entre los ensayos.<br />Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.<br />Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:<br />La distribución binomial es la base del test binomial de significación estadística.<br />Ejemplos<br />Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución:<br />Se lanza un dado diez veces y se cuenta el número X de tres obtenidos: entonces X ~ B(10, 1/6)<br />Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2, 1/2)<br />Una partícula se mueve unidimensionalmente con probabilidad q de moverse de aqui para allá y 1-q de moverse de allá para acá<br />Experimento Binomial<br />Existen muchas situaciones en las que se presenta una experiencia binomial. Cada uno de los experimentos es independiente de los restantes (la probabilidad del resultado de un experimento no depende del resultado del resto). El resultado de cada experimento ha de admitir sólo dos categorías (a las que se denomina éxito y fracaso). Las probabilidades de ambas posibilidades han de ser constantes en todos los experimentos (se denotan como p y q o p y 1-p).<br />Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos.<br />Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de probabilidad binomial, y se denota B(n,p).<br />Características analíticas<br />Su función de probabilidad es<br />donde <br />siendo las combinaciones de en ( elementos tomados de en )<br />Ejemplo<br />Supongamos que se lanza un dado 50 veces y queremos la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(50, 1/6) y la probabilidad sería P(X=20):<br />Experimento multinominal<br />El experimento binominal se convierte en un experimento multinominal si cada prueba tiene más de dos resultados posibles. <br />Ejemplo: extraer una carta de una baraja con reemplazo, es multinominal si los cuatro palos son los resultados de interés.<br />Como todas las particiones son mutuamente excluyentes y ocurren con igual probabilidad, obtenemos la distribución multinominal al multiplicar la probabilidad para un orden específico por el número total de particiones.<br />2901315319405002491740736600013582657366000 n n<br /> X1, X2,….. ,XkX1! X2! … Xk!<br />Distribución hipergeométrica<br />En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoría A y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x () elementos de la categoría A en una muestra de n elementos de la población original.<br />Propiedades<br />La función de probabilidad de una variable aleatoria con distribución hipergeométrica puede deducirse a través de razonamientos combinatorios y es igual a<br />Donde N es el tamaño de población, n es el tamaño de la muestra extraída, d es el número de elementos en la población original que pertenecen a la categoría deseada y x es el número de elementos en la muestra que pertenecen a dicha categoría. La notación hace referencia al coeficiente binomial, es decir, el número de combinaciones posibles al seleccionar b elementos de un total a.<br />El valor esperado de una variable aleatoria X que sigue la distribución hipergeométrica es<br />y su varianza,<br />En la fórmula anterior, definiendo<br />y<br />Se obtiene<br />La distribución hipergeométrica es aplicable a muestreos sin reemplazo y la binomial a muestreos con reemplazo. En situaciones en las que el número esperado de repeticiones en el muestreo es presumiblemente bajo, puede aproximarse la primera por la segunda. Esto es así cuando N es grande y el tamaño relativo de la muestra extraída, n/N, es pequeño.<br />Distribución de Poisson<br />En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo.<br />Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).<br />Propiedades<br />La función de masa de la distribución de Poisson es<br />Donde<br />k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces).<br />λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.<br />e es la base de los logaritmos naturales (e = 2,71828 ...)<br />Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatoria. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamaño n.<br />La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor de los enteros menores que λ (los símbolos representan la función parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1.<br />La función generadora de momentos de la distribución de Poisson con valor esperado λ es<br />Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.<br />La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es<br />Algunas distribuciones con variable continua<br />Distribución uniforme continua<br />En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a,b).<br />Distribución normal<br />En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.<br />La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.<br />La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.<br />De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.<br />La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.<br />Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:<br />caracteres morfológicos de individuos como la estatura;<br />caracteres fisiológicos como el efecto de un fármaco;<br />caracteres sociológicos como el consumo de cierto producto por un mismo grupo de individuos;<br />caracteres psicológicos como el cociente intelectual;<br />nivel de ruido en telecomunicaciones;<br />errores cometidos al medir ciertas magnitudes;<br />etc.<br />La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".<br />En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidades continuas y discretas.<br />Distribución normal Función de densidad de probabilidad<br />Fuente: WikipediaLa línea verde corresponde a la distribución normal estándar Función de distribución de probabilidad<br />Fuente: Wikipedia<br />BIBLIOGRAFÍA<br />Estadistica y probabilidad en Bachillerato<br /> Escrito por Carmen Barbero Sanpedro<br />Estadística y probabilidades. Teoría y práctica<br /> Escrito por Perelló, Miquel A<br />Estadística <br />Weimer<br />Estadística Elemental<br />Johnson<br />Introducción a la Estadística Económica<br />Merrill<br />FUENTES WEB<br />http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r51634.PDF<br />http://personal.us.es/valderas/INTRODUCCION%20AL%20CONCEPTO%20DE%20VALOR%20ESPERADO.pdf<br />http://www.ucm.es/info/genetica/Estadistica/estadistica_basica.htm<br />http://www.eumed.net/libros/2006a/rmss/a8.htm<br />http://virtual.uptc.edu.co/ova/estadistica/docs/3/57.htm<br />www.uaq.mx/matematicas/estadisticas/xu4-5.html<br />www.cyta.com.ar/biblioteca/.../modulo_6.htm<br />www.gestiopolis.com/recursos/.../probabeco.htm<br />www.virtual.uptc.edu.co/ova/estadistica/docs/3/49.htm<br />www.itch.edu.mx/.../04Distribuciones%20de%20Probabilidad.htm<br />http://www.estadisticaparatodos.es/taller/loterias/esperanza.html<br />http://www.galeon.com/colposfesz/est501/probabi/teo/cap404/cap404.htm<br />http://personal.us.es/valderas/INTRODUCCION%20AL%20CONCEPTO%20DE%20VALOR%20ESPERADO.pdf<br />http://www.virtual.unal.edu.co/cursos/ciencias/2001065/html/un2/valos_esperado_ejercicios.html<br />http://www.zweigmedia.com/MundoReal/cprob/cprob2.html<br />http://halweb.uc3m.es/esp/Personal/personas/icascos/esp/presentacion_valeatorias.pps<br />