Material EstadíStica Ii
Upcoming SlideShare
Loading in...5
×
 

Material EstadíStica Ii

on

  • 17,384 views

 

Statistics

Views

Total Views
17,384
Views on SlideShare
17,371
Embed Views
13

Actions

Likes
1
Downloads
292
Comments
0

1 Embed 13

http://www.pearltrees.com 13

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Material EstadíStica Ii Material EstadíStica Ii Document Transcript

    • ESTADÍSTICA II
      Caracas, agosto 2006
      República Bolivariana de Venezuela
      Ministerio de Educación Superior
      Fundación Misión Sucre
      Ministro de Educación Superior
      Samuel Moncada Acosta
      Viceministra de Políticas Académicas
      Maruja Romero Yépez
      Asesor de Contenido
      Prof. Susana Coves
      Diseñadora Instruccional
      Prof. Luisa Márquez
      UNIDADES CURRICULARES ESPECIALIZADAS
      ESTADÍSTICA II
      horasTrabajo Acompañado3Trabajo Independiente3Horas por semana6Total horas por trimestre42
      Competencias a desarrollar
      COMPETENCIASUNIDAD TEMÁTICAConocimientosHabilidades y DestrezasActitudes y valoresGrales. del proceso administrativoElaboración de normas o procedimientosMarco Legal y fiscal para la administraciónTécnicas y principios de mercadeoDesarrollo económico y socialTécnicas y procedimientos contablesIdentificar problemas o necesidadesElab informes. AdministElab edos financ.Formular proyectosElaborar normas y procedmientosRelaciones asertiva.sCompromiso socialParticipación en desarrollo endógeno1. Probabilidad2. Estimación Puntual3. Prueba de Hipótesis4. Regresión y Correlación
      Tabla de Contenidos
      Pág.Programa instruccional4Introducción6Contenidos de Repaso. Teoría de conjuntos7UNIDAD 1 PROBABILIDAD13Experimento, Resultado y Evento16Distribuciones de probabilidad18Probabilidad binomial19Probabilidad normal23Aproximación de la distribución normal a la binomial29UNIDAD 2 ESTIMACIÓN PUNTUAL30Población y muestra32Métodos de muestreo32Teorema del límite central34Estimadores35Estimador puntual35Intervalos de confianza36Determinación de parámetros para la media y la proporción37Características de un buen estimador39Cálculo del tamaño de la muestra41UNIDAD 3 PRUEBA DE HIPÓTESIS44¿Qué es una hipótesis?46¿Qué es una prueba de hipótesis?46Procedimiento para probar una hipótesis46Prueba para una o dos colas50Pruebas para media y proporción51UNIDAD 4 REGRESIÓN Y CORRELACIÓN59Variable dependiente e independiente61Diagrama de dispersión62Coeficiente de correlación62Respuestas BibliografíaAnexos
      PROGRAMA INSTRUCCIONAL
      Objetivo General:
      Analizar situaciones organizacionales a través de estadísticos idóneos que permitan considerar el efecto y la interacción entre los diferentes factores que intervienen en la toma de decisiones administrativas.
      Sinopsis de Contenidos:
      UNIDAD 1. PROBABILIDAD
      Objetivo: Aplicar los conceptos de probabilidad que permitan reducir los riesgos en la toma de decisiones
      Conceptos básicos:
      Probabilidad
      Experimento, resultado y evento
      Espacio muestral
      Punto muestral
      Sucesos y sus probabilidades
      Distribuciones de probabilidad
      Variable aleatoria
      Valor esperado
      Probabilidad binomial
      Probabilidad normal
      Concepto, propiedades e importancia
      Función de probabilidad
      Áreas bajo la curva
      Tablas
      Ajuste de la distribución normal a la distribución experimental y a la binomial
      UNIDAD 2. ESTIMACIÓN PUNTUAL
      Objetivo: Calcular los intervalos de confianza de los estimadores para la toma de decisión
      Población y muestra
      Métodos de muestreo
      Muestro aleatorio simple
      Muestreo aleatorio sistemático
      Muestreo aleatorio estratificado
      Muestreo por conglomerados
      Estimadores
      Características de los estimadores
      Intervalos de confianza para la media y la proporción
      Determinación del tamaño de la muestra
      UNIDAD 3. PRUEBA DE HIPÓTESIS
      Objetivo: Aplicar con propiedad y de forma pertinente a situaciones administrativas la prueba de hipótesis
      Qué es una hipótesis
      Qué es una prueba de hipótesis
      Contraste de hipótesis
      Paramétricas (Media aritmética y proporción)
      Para una población
      Para dos poblaciones
      UNIDAD 4. REGRESIÓN Y CORRELACIÒN
      Objetivo: Aplicar e interpretar el coeficiente de correlación y determinación con el propósito de obtener la relación o variación entre dos variables
      Variables dependiente e independientes
      Gráfico de dispersión
      Coeficiente de correlación
      Correlación lineal
      Coeficiente de determinación
      Modelo de análisis de regresión lineal
      Recta de mínimos cuadrados
      Error estándar de estimación
      35433000
      INTRODUCCIÓN
      La Estadística es la ciencia que se preocupa de la recolección de datos, su organización y análisis, así como de las predicciones que, a partir de estos datos, pueden hacerse. Esas predicciones se realizan a través de la estadística inferencial cuyo objetivo es sacar conclusiones generales para toda la población a partir del estudio de una muestra.
      La Inferencia Estadística es la parte de la estadística matemática que se encarga del estudio de los métodos para la obtención del modelo de probabilidad (forma funcional y parámetros que determinan la función de distribución) que sigue una variable aleatoria de una determinada población, a través de una muestra (parte de la población) obtenida de la misma.
      Los dos problemas fundamentales que estudia la inferencia estadística son el " Problema de la estimación" y el " Problema del contraste de hipótesis" Cuando se conoce la forma funcional de la función de distribución que sigue la variable aleatoria objeto de estudio y sólo tenemos que estimar los parámetros que la determinan, estamos en un problema de inferencia estadística paramétrica, este tipo de problemas son las que abordaremos en este material, el cual está conformado por cuatro unidades sobre: Probabilidad, estimación puntual, prueba de hipótesis y por último correlación y regresión.
      Contenidos de Repaso
      Uniones, Intersecciones y Relaciones entre Eventos
      Un conjunto es toda reunión de objetos. Con frecuencia es de utilidad identificar cómo pueden relacionarse los conjuntos entre sí. Con frecuencia es de utilidad identificar cómo pueden relacionarse los conjuntos entre sí. Se asume que se han identificado dos conjuntos A y B. Cada uno contiene numerosos elementos. Es completamente posible que algunos elementos. Es completamente posible que algunos elementos estén en ambos conjuntos. Por ejemplo, se asume que el conjunto A consta de todos los estudiantes de la clase de estadística, y el conjunto B consta de todos los estudiantes de la universidad que están especializándose en economía. Aquellos elementos (estudiantes) que están en ambos conjuntos son los especialistas en economía de la clase de estadística. Tales estudiantes constituyen la intersección entre A y B, que se escribe y se lee como “A intersección B”, consta de los elementos que son comunes tanto a A como a B. Un diagrama de Venn es una herramienta útil para mostrar la relación entre conjuntos, observemos:
      ATodos los estudiantes la claseBTodos los especialistas en economía “A intersección de B”Especialistas en economía en la clase
      Notación
      Por lo regular se usan letras mayúsculas para representar a los conjuntos, y letras minúsculas para representar a los elementos de un conjunto dado. Si es un conjunto, y todos sus elementos, es común escribir:
      para definir a tal conjunto . La notación empleada para definir al conjunto se llama notación por extensión. Para representar que un elemento pertenece a un conjunto , escribimos (léase en ). La negación de se escribe .
      Si todos los elementos de un conjunto satisfacen alguna propiedad, misma que pueda ser expresada como una proposición , con la indeterminada , usamos la notación por comprensión, y se puede definir
      donde el símbolo se lee " tal que" , y puede ser remplazado por una barra . Por ejemplo, el conjunto puede definirse por
      .
      El símbolo representa al conjunto de los números naturales.
      Complemento de un conjunto
      Dado un conjunto , se representa por al complemento de , el cual es un conjunto que verifica la proposición para cualquiera que sea el elemento . Así pues, está formado por todos los elementos que no son del conjunto .
      Igualdad entre conjuntos. Subconjuntos y Superconjuntos
      Igualdad de conjuntos
      Dos conjuntos y se dicen iguales, lo que se escribe si constan de los mismos elementos. Es decir, siempre que para cualquiera que sea el elemento , se verifique
      Subconjuntos y Superconjuntos
      Un conjunto se dice subconjunto de otro , si todo elemento de es también elemento de , es decir, cuando se verifique
      ,
      sea cual sea el elemento . En tal caso, se escribe .
      Cabe señalar que, por definición, no se excluye la posibilidad de que si , se cumpla A = B. Si tiene por lo menos un elemento que no pertenezca al conjunto , pero si todo elemento de es elemento de , entonces decimos que es un subconjunto propio de , lo que se representa por .
      Si es un subconjunto de , decimos también que es un superconjunto de , lo que se escribe . Así pues
      ,
      y también
      ,
      significando que es superconjunto propio de .
      Por el principio de identidad, es siempre cierto , para todo elemento , por lo que todo conjunto es subconjunto (y también superconjunto) de sí mismo.
      Vemos que es una relación de orden sobre un conjunto de conjuntos, pues
      para todo , y es reflexiva.
      , y es antisimétrica
      , y es transitiva
      Operaciones con conjuntos: Unión, Intersección, Diferencia y Diferencia Simétrica.
      Sean y dos conjuntos.
      Unión
      Los elementos que pertenecen a o a o a ambos y , forman otro conjunto, llamado unión de y , escrito . Así pues, se tiene
      .
      Intersección
      Los elementos comunes entre y forman un conjunto denominado intersección de y , representado por :
      .
      Si dos conjuntos y son tales que , entonces y se dicen conjuntos disjuntos.
      Ejemplos: si tenemos los conjuntos
      Entonces:
      Diferencia
      Los elementos de un conjunto que no se encuentran en otro conjunto , forman otro conjunto llamado diferencia de y , representado por, :
      .
      Vemos que
      ,
      de manera que
      . Pero también
      ,
      de modo que
      Diferencia simétrica
      Se define la diferencia simétrica de dos conjuntos por
      Cuantificadores
      Los cuantificadores sirven para indicar cuantos elementos de un conjunto dado cumplen con cierta propiedad. Tales cuantificadores son:
      El cuantificador universal, representado por . Este cuantificador se emplea para afirmar que todos los elementos de un conjunto cumplen con determinada propiedad. Se escribe
      .
      La proposición anterior suele usarse como la equivalente de
      El cuantificador existencial se usa para indicar que al menos un elemento de un conjunto cumple con una propiedad. Se escribe:
      La proposición del cuantificador existencial suele interpretarse como la equivalente de la proposición
      Se definen
      Aplicaciones
      Sean y dos conjuntos. Un subconjunto , se dice aplicación de en , lo que se representa por
      siempre que se verifiquen
      Si , el elemento se dice imagen de por , y el elemento se llama antecedente de por .
      Sea una aplicación . Se emplea la notación para representar a la imagen de por , y por tanto .
      Sean las aplicaciones y . Se define
      ,
      y se dice que es el producto de composición de las aplicaciones y .
      Vemos que
      y por lo que
      Unidad I
      Probabilidad
      Objetivo:
      Conocer los conceptos de probabilidad a fin de establecer las posibles relaciones entre eventos que permitirán reducir riesgos en a toma de decisiones en a practica profesional
      Contenidos:
      Probabilidad normal
      Conceptos Básicos
      Probabilidades
      Experimentos, resultados y evento
      Espacio muestral
      Punto muestral
      Sucesos y sus probabilidades
      Distribuciones de probabilidad
      Variable aleatoria
      Valor esperado
      Probabilidad binomial
      Probabilidad normal
      “No sé cuando podrá realizarse el sueño de Bolívar pero nosotros iremos poniendo las piedras”Augusto Sandino
      Probabilidad
      Probabilidad es un concepto que en administración nos permite trabajar en función de nuestras expectativas con la ocurrencia algún resultado, esto significa que hacemos proyecciones sobre la posibilidad de éxito o fracaso de un suceso, lo que a su vez genera una reducción de riesgos y de incertidumbre en la toma de decisiones.
      Probabilidad es una palabra que empleamos de forma cotidiana, y, efectivamente cuando preguntamos ¿Qué probabilidad hay de que esté listo para hoy? Suponemos que la persona que va a contestar nos dará una respuesta que nos permitirá proyectarnos y predecir eventos a futuro; si la respuesta es “no creo por que tienes varias personas por delante” eso nos va programando para dos acciones que impedirán que ese evento interrumpa nuestro accionar. Así mismo pasa en administración, pues un administrador debe considerar todos los escenarios posibles a la hora de decidir las acciones que debe emprender una organización, a fin de minimizar la incertidumbre y reducir riesgos.
      El propósito de esta unidad es ofrecer en una primera parte los conceptos básicos sobre probabilidad y luego la aplicación de dichos conceptos en la construcción de las distribuciones de probabilidad, que es una lista que contiene todos los resultados de un experimento y la probabilidad de ocurrencia de cada uno de ellos.
      UNIDAD I. PROBABILIDAD
      Probabilidad
      Es la posibilidad de que algo va a ocurrir, es medida entre 1 y 0. Mientras mayor sea la probabilidad de que el evento ocurra, la probabilidad asignada estará más cerca de uno, si hay certeza del que el evento va a ocurrir la probabilidad es de 1, y por el contrario la posibilidad de que no ocurra es de 0.
      Existen tres formas de enfocar la probabilidad: el modelo de frecuencia relativa, el modelo subjetivo y el modelo clásico. El modelo de frecuencia relativa utiliza datos que se han observado empíricamente, registra la frecuencia con que ha ocurrido algún evento en el pasado y estima la probabilidad de que el evento ocurra nuevamente con base en estos datos históricos. La probabilidad de un evento con base en el modelo de frecuencia relativa se determina mediante:
      Número de veces que ha ocurrido el evento en el pasadoNúmero total de observaciones
      P (E)=
      Si por ejemplo durante el año pasado hubo 200 nacimientos en un hospital local, de los cuales 122 fueron varones el modelo de frecuencia relativa revela que la probabilidad de que el próximo nacimiento o un nacimiento seleccionado al azar sea una niña se obtiene dividiendo el número de niñas que nació el año anterior dividido entre le número total de nacimientos:
      Si consideramos en el concepto anterior de probabilidad, en el cual es establece que la si la probabilidad es cercana a uno es tiene mayores oportunidades de ocurrencia, en nacimiento de una niña en ese hospital es un evento poco probable.
      El modelo subjetivo se utiliza cuando se desea asignar probabilidad a un evento que nunca ha ocurrido, por ejemplo la probabilidad de que una mujer sea elegida como Presidente de Venezuela, como no hay datos confiables se analizan las opiniones y las tendencias para obtener una estimación subjetiva.
      El último y tercer modelo de probabilidad es el clásico relacionado con mayor frecuencia a las apuestas y juegos de azar. La probabilidad clásica se basa en la suposición de que los resultados de un experimento sean igualmente probables. La probabilidad de un evento por medio de este modelo se determina mediante.
      Número de formas en las que puede ocurrir un eventoNúmero total de resultados posibles
      P(E)=
      Para ejemplificar observemos la aplicación de la ecuación
      P(cara)= Número de formas en las que el evento puede ocurrir / Número total de posibles resultados
      En este ejemplo sólo hay una posibilidad de que salga cara, y dos posibles resultados, que salga cara o que salga sello. Según el resultado de la ecuación existen iguales posibilidades de que salga cara o sello, pues la probabilidad se halla en medio de 0 y 1.
      Aun sin conocer a fondo la probabilidad clásica, se puede estar consciente de que la probabilidad de obtener una cara en el lanzamiento de una moneda es de la mitad.
      Experimento
      Seguramente asocias la palabra experimento a las ciencias físicas donde nos imaginamos a alguien mezclando químicos y manipulando tubos de ensayos, sin embargo, en administración se realizan experimentos para conocer los posibles resultados de una acción. Se dice que experimento es toda acción definida que conlleva a un resultado único bien definido que tiene dos o más posibles resultados y no se sabe cuál va a ocurrir.
      Resultado
      Una consecuencia particular de un experimento.
      Evento
      Una colección de uno o más resultados. De acuerdo a como se relacionan los eventos de un experimento se pueden clasificar en: mutuamente excluyentes, colectivamente exhaustivos, independientes o complementarios.
      Mutuamente excluyente: la ocurrencia de cualquiera de los eventos implica que ninguno de los otros eventos puede ocurrir al mismo tiempo. Como ejemplo tenemos el lanzamiento de una moneda en la cual si sale cara garantiza que no puede salir sello.
      Colectivamente exhaustivo: por lo menos uno de los eventos tiene que ocurrir, un ejemplo es el lanzamiento de un dado, los resultados posibles son 1,2,3,4,5 y 6 y existe la certeza que uno de ellos va a ocurrir.
      Independientes: son eventos en los que la ocurrencia de uno no tiene nada que ver con la ocurrencia del otro, por ejemplo lanzar un dado y una moneda a la vez, el resultado del lanzamiento del dado no afecta al de la moneda.
      Complementarios: son los eventos en los que si un evento no ocurre debe ocurrir el otro. Una buena representación de estos eventos la podemos apreciar al lanzar un dado podemos decir que un evento A es sacar un número par, pero si esto no ocurre, el complemento es sacar un número impar. En estos casos los eventos se denominan “A” y “no A”.
      Existe una última categoría que son los eventos compuestos consiste en la co-ocurrencia de dos o más eventos aislados. Las operaciones de conjuntos de intersección y unión implican eventos compuestos. De esta manera si se lanza una moneda y un dado a la vez el resultado es un evento compuesto y se puede calcular la probabilidad de tal evento. Los eventos compuestos son más interesantes e incluso más útiles en la administración ya que por medio de ellos pueden estudiarse las relaciones entre dos sucesos que ocurren de forma paralela.
      Para que visualicemos mejor las definiciones de experimento, resultado y evento, observemos el siguiente cuadro:
      Experimento: Tirar un dadoTodos los resultados posibles Obtener un 1Obtener un 2Obtener un 3Obtener un 4Obtener un 5Obtener un 6Algunos eventos posiblesObtener un número parObtener un número mayor que 4Obtener el número 3 o uno menor
      En el experimento del lanzamiento de un dado hay seis posibles resultados, pero hay muchos eventos posibles.
      Ejercicio 1:
      Clasifica los siguientes eventos:
      El lanzamiento de dos monedas a la vez ___________________________________
      Que un vuelo de avión salga retrasado ____________________________________
      Que un bebé sea varón ________________________________________________
      Que la comida de hoy no quede salada ____________________________________
      Que en la próxima temporada de béisbol Magallanes sea el campeón____________
      Espacio de Muestras y Eventos
      Los elementos de básicos de la teoría de probabilidades son los resultados del proceso o fenómenos bajo estudio. Cada tipo posible de ocurrencia se denomina un evento. Un evento simple puede describirse mediante una característica sencilla. La complicación de todos los eventos posibles se llama espacio muestral. Un evento conjunto es un evento que tiene dos o más características.
      Para calcular la probabilidad de cualquier resultado es necesario primero determinar el número total de resultados posibles; en un dado, por ejemplo, los resultados posibles son 1,2,3,4,5,6. Llamemos a este conjunto U, ya que es el espacio muestral o universo de posibles resultados. El espacio muestral incluye todos los posibles resultados en un “experimento” que son de interés para el experimentador. Los elementos primarios de U son llamados elementos o puntos muéstrales. Se escribe, entonces, U = {1,2,3,4,5,6}
      Veámoslo representado en un diagrama de Venn:
      2 34 5 6El conjunto de los números del 1 al 6, es el espacio muestralU = {1,2,3,4,5,6}Cada elemento dentro del conjunto es un punto muestral
      Aclarando la imagen anterior decimos que un evento es un subconjunto de U; cualquier elemento de un conjunto es también un subconjunto del conjunto. Algunas veces puede ser complicado determinar un espacio muestral, sin embargo para ello nos apoyamos en la teoría de conjuntos. Los conjuntos pueden definirse listando todos los miembros de conjunto y estableciendo una regla de inclusión de los elementos en él.
      Distribuciones de Probabilidad
      Una distribución de probabilidad aporta el rango completo de valores susceptibles de ocurrir con base en un experimento. Una distribución de probabilidad es similar a una distribución de frecuencia, con la diferencia que no describe el pasado sino muestra que tan probable es que ocurra un evento. Dado que esta clase de distribuciones se ocupan de las expectativas son modelos de gran utilidad para hacer inferencias y tomar decisiones en condiciones de incertidumbre.
       
      Variable Aleatoria.
       
      Una variable aleatoria es aquella que asume diferentes valores, a consecuencia de los resultados de un experimento aleatorio, cada uno de los cuales tiene una determinada probabilidad. Por ejemplo si contamos la cantidad de alumnos inasistentes a las clases de estadística II durante un mes, el número de ausencias es la variable aleatoria. Si esa variable toma sólo valores enteros, se dice que es de tipo discreto, tal es el caso del ejemplo anterior, sería imposible decir que faltaron 3,5 estudiantes. Pero si por el contrario la variable puede tomar valores fraccionarios se dice que es de tipo continuo. Un ejemplo de una variable aleatoria discreta es el peso de los perros que recibe un veterinario en su consulta, 50.5 Kg, 25.6 Kg, etc.
      Una variable aleatoria es una variable cuyo valor es el resultado de un evento aleatorio.
      Supongamos que tenemos una variable aleatoria x, y que esta puede tomar los valores que pueden ser discretos o continuos; cada uno de estos valores tiene cierta probabilidad que en la práctica se desconoce; sin embargo, a través de planteamientos teóricos podemos obtener dichas probabilidades, a las cuales designamos por f(x); al desarrollo que toman estos valores de f(x), es lo que se llama distribuciones de probabilidad de la variable aleatoria x. Estas distribuciones de probabilidad toman diferentes formas o tipos, sin embargo, las más importantes son la distribución binomial y la distribución normal.
      Valor Esperado.
       
      El valor esperado es un concepto fundamental en el estudio de las distribuciones de probabilidad. Desde hace muchos años este concepto ha sido aplicado ampliamente en el negocio de seguros y en los últimos veinte años ha sido aplicado por otros profesionales que casi siempre toman decisiones en condiciones de incertidumbre. Para obtener el valor esperado de una variable aleatoria discreta, multiplicamos cada valor que ésta puede asumir por la probabilidad de ocurrencia de ese valor y luego sumamos los productos. Es un promedio ponderado de los resultados que se esperan en el futuro.
      Probabilidad Binomial
      Es una distribución de probabilidad que emplea las variables aleatorias discretas, su principal característica es que sólo existen dos resultados posibles para cada experimento, gracias a ello su nombre binomial; además posee las siguientes propiedades:
      Sólo debe haber dos resultados posibles. Uno se identifica como éxito y el otro como fracaso, pero este resultado no trae una connotación de bueno o malo, es decir, un éxito no significa que el resultado sea deseable.
      La probabilidad de que una observación se clasifique como éxito, p, es constante de observación a observación. Por tanto, la probabilidad de que una observación se clasifique como fracaso, q= 1-p, es constante sobre todas las observaciones.
      Cada observación puede clasificarse en una o dos categorías mutuamente excluyentes y colectivamente exhaustivas. El resultado de cualquier observación es independiente del resultado de cualquier observación.
      El experimento puede repetirse muchas veces, pues un experimento no afecta al otro.
        Como ya se mencionó el símbolo p representa la probabilidad de un éxito y el símbolo q ( 1- p ) representa la probabilidad de un fracaso. Para representar cierto número de éxitos, utilizaremos el símbolo r y para simbolizar el número total de ensayos emplearemos el símbolo n.
       
      Entonces tenemos que:
       
      PProbabilidad de éxito.QProbabilidad de fracaso.rNúmero de éxitos deseados.nNúmero de ensayos efectuados.
       
      Calcular la probabilidad de r éxitos en n ensayos según la formula binomial se calcula así:
      Recordemos que el símbolo factorial! Significa, por ejemplo que es 3! = 3*2*1 = 6 Los matemáticos definen 0! = 1.Las calculadoras científicas traen la función factorial!
      Es necesario saber que las observaciones o experimentos pueden ser con o sin reemplazo, para comprender mejor estas definiciones leamos el siguiente ejemplo: Queremos conocer la probabilidad de que salga una esfera roja de una bolsa que contiene 4 esferas, 3 azules y 1 roja. Si el experimento es con reemplazamiento, al meter la mano en la bolsa y extraer la pelota se observa el color y se vuelve a depositar en la misma; por el contrario, si el experimento es sin reemplazamiento se extrae la bola, se observa el color y se deja afuera para continuar con los siguientes resultados. Es importante resaltar que los experimentos con reemplazo se convierten en infinitos.
      Cómo se construye una Distribución de Probabilidad Binomial
      Para elaborar una distribución de probabilidad binomial es necesario conocer el número de ensayos y la probabilidad éxito de cada ensayo, por ejemplo si un estudiante presenta una prueba de selección conformada por 20 preguntas y cada una tiene 5 opciones de respuestas, se dice que habrán 20 ensayos (las preguntas); y si dentro de las 5 opciones de respuesta sólo una es la correcta, podemos decir que del 100% de posibilidades cada estudiante tiene 20% de posibilidad de responder sin saber, es decir, una persona sin conocimientos tiene una probabilidad de 0,20 de aprobar la prueba acertando las respuestas.
      Ejemplo:
      La Línea área Conviasa tiene 5 vuelos diarios a Barquisimeto. Supongamos que la probabilidad de que alguno de los vuelos salga retrasado es de 0.20 ¿Cuál es la probabilidad de que ninguno de los vuelos hoy salga retrasado?
      Utilicemos la fórmula , considerando que n=5 vuelos, y p=0,20
      No olvides que q=1-p
      La probabilidad de que ninguno de los vuelos salga retrasado es de 0,32; si retomamos que el concepto de probabilidad, el cual se mide dentro del rango 0-1 podemos afirmar que es baja la probabilidad de que ningún vuelo salga retrasado. Ahora bien si queremos tener una estimación de cuantos vuelos saldrán retrasados entonces construimos la distribución de probabilidad binomial, para ello sustituiremos r por los valores 1,2,3,4,y 5. Como ya sustituimos la ecuación con el valor r=0, a continuación se muestra el desarrollo del ejercicio con r=1 y r=5.
      Ejercicio 2:
      Ahora realiza tú la ecuación sustituyendo r por los valores 2, 3 y 4. En la tabla de la Distribución Binomial, que se te presenta a continuación, se muestran los resultados para que verifiques tu ejercicio:
      Distribución Binomial para n=5, p=0,20
      Número de Vuelos con RetrasoProbabilidad00.327710.409620.204830.051240.006450.0003Total1.0000
      La distribución binomial también se puede expresar de forma gráfica
      Recuerdas los gráficos de barras estudiados en Estadística I, ahora también los puedes utilizar para graficar la Distribución de Probabilidad Binomial.
      Ejercicio 3:
      Imaginemos una escuela primaria donde los alumnos llegan tarde a menudo. Cinco alumnos están en el jardín de niños. La directora lleva tiempo estudiando el problema, habiendo llegado a la conclusión de que hay una probabilidad de 0.4 de que un alumno llegue tarde y de que los alumnos lleguen independientemente uno de otro ¿Cómo trazamos una distribución binomial de probabilidad que ilustre las probabilidades de que 0,1,2,3,4 ó 5 estudiantes lleguen tarde simultáneamente? 
      Medidas de tendencia central y de dispersión para la distribución binomial.
       
      La distribución binomial tiene un valor esperado o media ( ) y una desviación estándar que nos permite determinar que tan alejados están los datos de la media o promedio (). Podemos representar la media de una distribución binomial de la siguiente forma:
       
      = n p
       
      donde :
      Recuerda que la Desviación Estandar se determina calculándole la raíz cuadrada de la Varianza(), por lo que inferimos que n= número de ensayos.
      p= probabilidad de éxitos.
       
      Y la desviación estándar de la siguiente forma:
       
      donde :
      n= número de ensayos.
      p= probabilidad de éxito.
      q= probabilidad de fracaso.
       
      Ejemplo:
      Una máquina empaquetadora que produce 20% de paquetes defectuosos. Si se extrae una muestra aleatoria de 10 paquetes, podremos calcular la media y la desviación estándar de la distribución binomial de ese proceso en la forma que sigue:
      = np = 10*0.2 = 2 Media.
       
      = npq = (10) (0.2) (0.8) = 1.6 = 1.265 Desviación estándar.
      Probabilidad normal
      De todas las distribuciones de probabilidad la normal es la más importante. Esta distribución es frecuentemente utilizada en las aplicaciones estadísticas; su propio nombre indica su extendida utilización, justificada por la frecuencia o normalidad con la que ciertos fenómenos tienden a parecerse en su comportamiento a esta distribución. Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana. En otras ocasiones, al considerar distribuciones binomiales, tipo B(n,p), para un mismo valor de  p  y valores de  n  cada vez mayores, se ve que sus polígonos de frecuencias se aproximan a una curva en " forma de campana" .
      La distribución normal de probabilidad es una distribución de probabilidad continua tanto simétrica como mesocúrtica. La curva de probabilidad de probabilidad que representa a la distribución normal de probabilidad tiene forma de campana
      Ambas mitades de la campana son idénticasPlaticúrticaLeptocúrticaMesocúrticaMedia, mediana y moda son iguales
      La distribución normal de probabilidad es importante para la inferencia estadística porque:Se sabe que las medidas obtenidas en muchos procesos aleatorios siguen esta distribución.Las probabilidades normales suelen servir para aproximar otras distribuciones como la binomial.Las distribuciones estadísticas como la media muestral y la proporción muestral tienen distribución normal cuando el tamaño de muestra es grande, independientemente de la población de origen.
      Propiedades de la Distribución Normal
      La distribución normal tiene varias propiedades teóricas importantes, entre las cuales están:
      Tiene forma de campana, es simétrica en apariencia y posee un solo pico en el centro de la distribución.
      Sus mediciones de tendencia central (media, mediana, moda) son iguales y se ubican en el pico.
      Su dispersión media es igual a 1.33 desviaciones estándar. El valor de su alcance intercuartil puede diferir ligeramente de 1.33 desviaciones estándar.
      La curva normal desciende suavemente en ambas direcciones a partir del valor central. Es asintótica, lo que significa que la curva se acerca cada vez más al eje de las X pero jamás llega a tocarlo. Es decir, las colas de la curva se extienden de manera indefinida en ambas direcciones.
      Pero… ¿Qué es Simetría y Asimetría?
      Para saber si una distribución es simétrica, hay que precisar con respecto a qué. Un buen candidato es la mediana, ya que para variables continuas, divide al histograma de frecuencias en dos partes de igual área. Podemos basarnos en ella para, de forma natural, decir que una distribución es simétrica si el lado derecho de la gráfica (a partir de la mediana) es la imagen por un espejo del lado izquierdo
        
      Cuando la variable es discreta, decimos que es simétrica, si lo es con respecto a la media. Se podría pensar que definir la simetría con usando la mediana para variables continuas y usando la media para variables discretas es una elección arbitraria. En realidad esto no es así, pues si una variable es continua, coinciden los ambos criterios de simetría (con respecto a la media y a la mediana). Es más, se tiene que media y mediana coinciden para distribuciones continuas simétricas. Por otro lado, en el caso de variables discretas, la distribución es simétrica si el lado derecho del diagrama se obtiene por imagen especular desde la media. En este caso coincide la media con la mediana si el número de observaciones es impar.
      Si la variable es continua simétrica y unimodal, coinciden la media, la mediana y la moda.
      Dentro de los tipos de asimetría posible, vamos a destacar los dos fundamentales
      Asimetría positiva:
      Si las frecuencias más altas se encuentran en el lado izquierdo de la media, mientras que en derecho hay frecuencias más pequeñas (cola).
      Asimetría negativa:
      Cuando la cola está en el lado izquierdo.
        
      Simetría y Asimetría en la Curva Normal
      0157480
      La importancia de la distribución normal viene dada por tres razones:
      Numerosos fenómenos continuos parecen seguirla o pueden aproximarse mediante ésta.
      podemos usarla para aproximar diversas distribuciones de probabilidad discreta y evitar así pesados cálculos
      Proporciona la base de la inferencia estadística clásica debido a su relación con el teorema del límite central.
      Cómo se construye una Distribución de Probabilidad Normal
      Construir una distribución de probabilidad, tal y como lo hicimos con la binomial sería imposible debido a que la probabilidad normal está determinada por la media () y la desviación estándar (). Lo bueno es que podemos utilizar un solo dato de la familia de distribuciones normales para dar respuestas a todos los problemas que decidamos resolver con este tipo de distribución. La que tiene una media de 0 y una desviación estándar de 1 se le conoce como distribución normal estándar. Todas las distribuciones normales pueden convertirse a “distribución normal estándar” restando la media de cada observación y dividiendo por la desviación estándar, utilizando un valor z.
      Valor Z: La distancia entre un valor seleccionado, designado X, y la media , dividida por la desviación estándar. Donde:X: es el valor de cualquier observación o medición específica.: es la media de la distribución.: es la desviación estándar de la distribución
      Áreas bajo la curva normal.
       
      La primera aplicación de la distribución normal supone encontrar el área bajo la curva normal entre una media y un valor seleccionado designado como x. No importa cuáles sean los valores de y para una distribución de probabilidad normal, el área bajo la curva es 1,00; de manera que podemos pensar en áreas bajo la curva como si fueran probabilidades. Matemáticamente:
       
      Aproximadamente el 68% de todos los valores de una población normalmente distribuida se encuentran dentro + 1 desviación estándar de la media.
      Aproximadamente 95,5% de todos los valores de una población normalmente distribuida se encuentran dentro de + 2 desviaciones estándar de la media.
      Aproximadamente 99,7% de todos los valores de una población normalmente distribuida se encuentran dentro de + 3 desviaciones estándar de la media.
       
      Las tablas estadísticas indican porciones del área bajo la curva normal que están contenidas dentro de cualquier número de desviaciones estándar (más, menos) a partir de la media.
       
      No es posible ni necesario tener una tabla distinta para cada curva normal posible. En lugar de ello, podemos utilizar una distribución de probabilidad normal estándar para encontrar áreas bajo cualquier curva normal. Con esta tabla podemos determinar el área o la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de ciertas distancias a partir de la media. Estas distancias están definidas en términos de desviaciones estándar.
       
      Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el mismo número de desviaciones estándar a partir de la media contendrán la misma fracción del área total bajo la curva para cualquier distribución de probabilidad normal.
      Ejemplo (Tomado de http://www.monografias.com/trabajos26/distribucion-continua/distribucion-continua.shtml)
      El Instituto Especializado Materno Perinatal desea conocer la probabilidad de que al hacer una prueba de hemoglobina en gestantes adolescentes que acuden a la institución en el tercer trimestre del embarazo, se obtenga un resultado menor a 11 mg/dl; para lo cual toma una muestra al azar de 30 gestantes menores de 19 años, cuya edad gestacional este comprendida entre 28 – 40 semanas.
      Datos:
      n = 30 x =10.547 = 0.718
      Base de datos: Nivel de Hemoglobina en gestaciones de adolescentes en el 3er. Trimestre del embarazo. n = 30
      10.911.29.811.69.910.011.210.210.89.510.010.911.510.410.910.311.711.29.810.411.411.310.510.211.110.69.98.910.89.5
      Prueba estadística : Distribución Normal Estándar o Z
      Si sabemos que:
      Media: 10.55
      Desviación Estándar: 0.71
      Cálculo del estadístico z :
      X - m 11- 10.55 0.45 = 3.75
      z = Sx = 0,71/Ö 30 = 0.12
      P(X<11) confirmado en la tabla de la función normalizada z =3.75
      La Función de Normalización, z = 0.64
      Tenemos los siguientes datos:
       DistribuciónDistribuciónNormal EstándarNormalX11 Media10.550Desviacion Estandar0.711Z0.64 
      De estos datos podemos hacer la siguiente tabla de distribuciones
      Xf(X)Zf(Z)8.420.0013-30.00139.130.0227-20.02279.840.1591-10.159110.550.501900.501911.260.843210.843211.970.977820.977811.260.843210.8432
      Curva de la distribución normal estándar en comparación con la Normal:
      101155541910
      Interpretación:
      La probabilidad de que el valor de hemoglobina en una gestante adolescente que curse el tercer trimestre del embarazo sea menor a 11 mg/dl es de 0.64. Es decir, el 64% de las gestantes adolescentes que acuden a maternidad de Lima sufren de anemia asociada a la gestación.
      Ejercicio 4:
      El costo de una chupetas de diferentes marcas tiene una distribución aproximadamente normal con una media de 500 y una desviación estándar de 10¿Cuál es el valor z para un valor x de 520 y otro de 490?
       
        
      Uso de la tabla de distribución de probabilidad normal estándar.
       
      En esta tabla, el valor z está derivado de la fórmula:
       
      z = (x - m ) / s
       
      en la que:
       
      x = valor de la variable aleatoria que nos preocupa
      m = media de la distribución de la variable aleatoria
      s = desviación estándar de la distribución
      z = número de desviaciones estándar que hay desde x a la media de la distribución.
       
      ¿Por qué utilizamos z en lugar del número de desviaciones estándar? Las variables aleatorias distribuidas normalmente tienen unidades diferentes de medición: bolívares, dólares, pulgadas, kilogramos, segundos, etc. Como vamos a utilizar una tabla, hablamos en términos de unidades estándar (que en realidad significa desviaciones estándar), y denotamos a éstas con el símbolo z.
       
      La tabla de distribución de probabilidad normal estándar da los valores de únicamente la mitad del área bajo la curva normal, empezando con 0,0 en la media. Como la distribución normal de probabilidad es simétrica, los valores verdaderos para una mitad de la curva son verdaderos para la otra.
       
        
      Defectos de la distribución normal de probabilidad.
       
      Los extremos de la distribución normal se acercan al eje horizontal, pero nunca llegan a tocarlo. Esto implica que existe algo de probabilidad (aunque puede ser muy pequeña) de que la variable aleatoria pueda tomar valores demasiado grandes. No perderemos mucha precisión al ignorar valores tan alejados de la media. Pero a cambio de la conveniencia del uso de este modelo teórico, debemos aceptar el hecho de que puede asignar valores empíricos imposibles.
       
       
      La Distribución Normal como una Aproximación de la Distribución Binomial.
       
      Aunque la distribución normal es continua, resulta interesante hacer notar que algunas veces puede utilizarse para aproximar a distribuciones discretas, debido a que generar una distribución binomial para muestras grandes puede llevar mucho tiempo es más eficiente hacer una aproximación de la distribución normal a la binomial
       
      Una distribución binomial B(n,p) se puede aproximar por una distribución normal, siempre que n sea grande y p no esté muy próxima a 0 o a 1. La aproximación consiste en utilizar una distribución normal con la misma media y desviación típica que la distribución binomial. En la práctica se utiliza la aproximación cuando:
      En cuyo caso:
      Y tipificando se obtiene la normal estándar correspondiente:
       
      Unidad II
      Estimación Puntual
      Objetivo:
      Calcular los intervalos de confianza de los estimadores para la toma de decisión.
      Contenidos:
      Población y muestra
      Métodos de muestreo
      Muestro aleatorio simple
      Muestreo aleatorio sistemático
      Muestreo aleatorio estratificado
      Muestreo por conglomerados
      Estimadores
      Intervalos de confianza para la media y la proporción
      Determinación del tamaño de la muestra
      “Vive como si fueras a morir mañana. Aprende como si fueras a vivir siempre.” Mohandas Gandhi
      Estimación Puntual
      En administración es usual realizar estudios en los que se aborden diversas poblaciones, sin embargo acceder a cada miembro de esas poblaciones es un trabajo imposible de realizar, por ello se seleccionan muestras que nos den una evidencia de lo que gusta, opina, etc. una población, no obstante el hecho de no poseer los datos reales nos obliga a estimarlos, para ello existen los estimadores. En esta unidad encontrarás algunos aspectos relacionados con los estimadores puntuales y sus intervalos de confianza.
      UNIDAD II. ESTIMACIÓN PUNTUAL
      Población y Muestra
      La población es el grupo total de individuos u objetos que se consideran, y la muestra es una parte o subconjunto de dicha población.
      Métodos de Muestreo
      El muestreo es una herramienta para inferir algo respecto a una población mediante la selección de una muestra de esa población. En muchas oportunidades el muestreo es la única herramienta para determinar algo con respecto a la población por:
      Es costoso abordar a todos los integrantes de la población
      La idoneidad de los resultados de la muestra, es decir, para muchos estudios no es esencial indagar sobre la totalidad de la población pues con una muestra se obtiene los datos necesarios sin afectar significativamente los resultados
      Es dificultoso poner se en contacto con todos los miembros de una población.
      La naturaleza destructivas de ciertas pruebas, como lo es el caso de las pruebas de control de calidad, si se toma un objeto para determinar su punto máximo de flexión, el cual al pasarlo se rompe, si tomamos a toda una población (producción e un día, por ejemplo) eliminaríamos por completo todos los elementos de la población.
      En repetidas ocasiones se ha enfatizado la necesidad de seleccionar una muestra representativa de la población. Una muestra que tergiverse la población representará un error de muestreo y producirá estimados imprecisos de loa parámetros de la población. Hay dos fuentes básicas de muestreo. La primera es sencillamente mala suerte. Debido a la cuestión de suerte, la muestra puede contener elementos que no sean característicos de la población. El destino puede que dictar ciertas selecciones en la muestra sea atípicamente más grandes que la mayoría de los de la población y en tal caso resultarían una sobreestimación del parámetro. O quizás muchos de los elementos muestrales tienden a ser más pequeños de lo que típicamente se encuentra en la población y en tal caso resultaría una subestimación.
      Un asegunda fuente de error de muestreo es el sesgo muestral. El sesgo resulta de la tendencia a favorecer la selección de ciertas muestras sobre otras en la recolección de los datos de la muestra. La selección de la muestra puede terminar en error. Por tanto, es sabio garantizar que la recolección de los datos de la muestra siga un método que haya comprobado su capacidad para minimizar dicho error.
      Métodos de Muestreo Probabilística
      Existen dos tipos de muestras: Las probabilísticas y las no probabilísticas.
      Qué es una muestra probabilística: Muestra seleccionada de tal forma que cada artículo o persona de la población tienen la misma probabilidad de ser incluida en la muestra. Si por el contrario se utilizan métodos no probabilísticas no todos los artículos tienen la misma probabilidad de ser incluidos por lo tanto se corre el riesgo de que los resultados estén sesgados, lo que significa que los resultados no sean representativos a la población.
      Muestreo Aleatorio Simple
      Una muestra aleatoria simple puede obtenerse simplemente enumerando las observaciones sobre pedazos idénticos de papel, colocándolos en un sombrero y sacando el número deseado de modo que cada uno de los elementos o personas en la población tenga las mismas probabilidades de ser incluidos. Además, también puede hablarse de la tabla de números aleatorios.
      Muestreo Sistemático
      Una muestra sistemática se forma seleccionando cada i-ésimo ítem de la población. Si se determina que i es igual a 10, una muestra sistemática consta de cada décima observación en la población. La población debe ordenarse o enumerarse en forma aleatoria. La primera selección debe determinarse aleatoriamente, y si i= 10, entonces estará en alguna de las primeras 10 observaciones. El punto inicial exacto puede identificarse bien sea seleccionando un número entre 1 y 10 sacado de un sombrero, o utilizando una tabla de números aleatorios. En cualquiera de los casos se selecciona de allí en adelante cada décima observación.
      Este muestreo es ventajoso porque no requiere de un experto altamente calificado para contar hasta 10 y registrar el resultado. Además el método permite flexibilidad ya que puede establecerse que i sea 10, 100, 1000 o cualquier otro número deseado. La determinación del valor apropiado para i también es muy fácil. Si se desea seleccionar una muestra de tamaño 100 de una población de 1000. El peligro principal que debe evitarse es la ocurrencia de un patrón en el ordenamiento de la población. Por ejemplo enumerar a la población alfabéticamente.
      Muestreo Estratificado
      Una muestra estratificada se divide una población en subgrupos llamados estratos, y se selecciona una muestra para cada uno de ellos, forzando las proporciones de la muestra de cada estrato para que esté conforme al patrón poblacional. Se emplea comúnmente cuando la población es heterogénea, o disímil, aunque ciertos grupos homogéneos puedan aislarse. De esta forma el investigador puede incrementar la precisión más allá del obtenido por una muestra aleatoria simple de tamaño similar.
      Muestreo por Conglomerados
      El muestreo por conglomerados ofrece ciertas ventajas sobre otros métodos. Consiste en dividir toda la población en conglomerados o grupos y luego seleccionar una muestra de estos conglomerados. Todas las observaciones en estos conglomerados seleccionados están incluidas en la muestra. Este procedimiento con frecuencia es más fácil y rápido que el muestreo aleatorio simple o estratificado. También es posible combinar el muestreo estratificado con el muestreo por conglomerados.
      Error en el muestreo: Es la diferencia de un estadístico de la muestra y un parámetro de la población.
      Teorema del Límite Central
      El Teorema del Límite Central dice que si tenemos un grupo numeroso de variables independientes y todas ellas siguen el mismo modelo de distribución (cualquiera que éste sea), la suma de ellas se distribuye según una distribución normal. Por ejemplo: la variable " tirar una moneda al aire" sigue la distribución de Binomial. Si lanzamos la moneda al aire 50 veces, la suma de estas 50 variables (cada una independiente entre si) se distribuye según una distribución normal. Este teorema se aplica tanto a suma de variables discretas como de variables continuas.
      Los parámetros de la distribución normal son:
      Media:  n * m (media de la variable individual multiplicada por el número de variables independientes)
      Varianza:  n * s2 (varianza de la variable individual multiplicada por el número de variables individuales)
      Teorema del Límite Central:No importa el tipo de distribución de la población. Si las muestras son suficientemente grandes (n30), la distribución en el muestreo se puede aproximar a la distribución normal. Aplicando las propiedades de la distribución normal ase puede obtener la probabilidad de que la media muestral esté entre ciertos valores o el intervalo centro del cual caería una proporción fija de la muestra. Para esto se procede de igual manera que una distribución normal utilizando la fórmula de Z para la distribución muestral:
      Veamos ahora dos ejemplos:
      Se lanza una moneda al aire 100 veces, si sale cara le damos el valor 1 y si sale cruz el valor 0. Cada lanzamiento es una variable independiente, con media 0,5 y varianza 0,25. Calcular la probabilidad de que en estos 100 lanzamientos salga más de 60 caras. La variable suma de estas 100 variables independientes se distribuye, por tanto, según una distribución normal.
      Media = 100 * 0,5 = 50
      Varianza = 100 * 0,25 = 25
      Para ver la probabilidad de que salgan más de 60 caras calculamos la variable normal tipificada equivalente:
      (*) 5 es la raíz cuadrada de 25, o sea la desviación típica de esta distribución
      Por lo tanto:
      P (X > 60) = P (Y > 2,0) = 1- P (Y < 2,0) = 1 - 0,9772 = 0,0228
      Es decir, la probabilidad de que al tirar 100 veces la moneda salga más de 60 caras es tan sólo del 2,28%.
      La renta media de los habitantes de un país se distribuye uniformemente entre 4,0 millones de bolívares. y 10,0 millones bolívares. Calcular la probabilidad de que al seleccionar al azar a 100 personas la suma de sus rentas supere los 725 millones Bs.. Cada renta personal es una variable independiente que se distribuye según una función uniforme. Por ello, a la suma de las rentas de 100 personas se le puede aplicar el Teorema del Límite Central.
      La media y varianza de cada variable individual es:
      m = (4 + 10 ) / 2 = 7
      s2 = (10 - 4)2 / 12 = 3
      Por tanto, la suma de las 100 variables se distribuye según una normal cuya media y varianza son:
      Media: n * m = 100 * 7 = 700
      Varianza : n * s2 = 100 * 3 = 300
      Para calcular la probabilidad de que la suma de las rentas sea superior a 725 millones ptas, comenzamos por calcular el valor equivalente de la variable normal tipificada:
      Luego:
      P (X > 725) = P (Y > 1,44) = 1 - P (Y < 1,44) = 1 - 0,9251 = 0,0749
      Es decir, la probabilidad de que la suma de las rentas de 100 personas seleccionadas al azar supere los 725 millones de bolívares es tan sólo del 7,49%  
      Ejercicio 5
      En una asignatura del colegio la probabilidad de que te saquen a la pizarra en cada clase es del 10%. A lo largo del año tienes 100 clases de esa asignatura. ¿Cuál es la probabilidad de tener que salir a la pizarra más de 15 veces?
      Estimadores
      Estimador puntual:
      Es un valor que se calcula a partir de la información de la muestra, y que se usa para estimar el parámetro de la población. Cuando no poseemos los datos de una población es necesario estimar la media de la población, para ello utilizamos un número único. A ese número se le conoce como estimador puntual. No obstante un estimador puntual sólo se refiere a una parte de la historia. Si bien no se espera que es estimador puntual esté próximo al parámetro de la población, se desearía expresar que tan cerca está, para ello sirve el intervalo de confianza.
      Un estimador puntual es el valor numérico de una estadística muestral empleado para estimar el valor de un parámetro de la población o proceso. Una de las características más importante de un estimador es que sea insesgado. Un estimador insesgado es una estadística muestral cuyo valor esperado es igual al parámetro por estimar. A continuación se presentan algunos de los estimadores puntales de uso más frecuente:
      Parámetro de la PoblaciónEstimadorMedia, Diferencia entre las medias de dos poblaciones, Proporción, Diferencia entre las poblaciones de dos poblaciones, Varianza, Desviación estándar, -
      El estimador puntual utiliza un valor de la muestra para estimar el parámetro de la población. Este valor variará de una muestra a otra porque en cada muestra sólo se selecciona una parte de la población. La utilidad del estimador puntual está condicionada a la compañía de un estimador del error.
      Estimación por Intervalos, un intervalo es un rango de valores dentro del cual se estima está el parámetro de la población.
      Intervalo de Confianza:
      EL intervalo de confianza es un rango de valores que se construyen a partir de datos de la muestra de modo que el parámetro ocurre dentro de dicho rango con una probabilidad específica. La probabilidad específica se conoce como nivel de confianza.
      La media de la muestra es un estimador puntual de la media de la población, por lo que si una tienda desean estimar la edad promedio de las personas que compran equipos de computación, con tan solo tomar una muestra aleatoria de los compradores recientes pueden determinar la edad de la población, por lo tanto la media de la muestra estima la media de la población.
      Cuando el tamaño de la muestra, n, es por lo menos de 30, generalmente se acepta que el teorema del límite central asegurará una distribución normal de las medias de las muestras. Esta consideración es importante. Si las medias de las muestras tienen una distribución normal, es posible usar la distribución normal estándar, es decir, z, en nuestros cálculos. Los intervalos de confianza de 95 y 99 por ciento se calculan de la siguiente forma cuando n es igual o mayor que 30.
      Intervalo de confianza de 95 % para una media
      Intervalo de confieanza de 99 % para una media
      1,96 y 2,58 son valores z que corresponden al 95 y 99% de las observaciones respectivamente, pero si lo que se desea es calcular un intervalo de confianza para una media la fórmula es:
      Intervalo de Confianza para una Proporción de la Población
      La determinación de un estimador puntual y de un de intervalo para una proporción de la población es similar a los métodos que se describieron en la sección anterior. Un estimador puntual para la proporción de la población se encuentra al dividir el número de éxitos en la muestra entre el número que se muestreo. Por ejemplo, supongamos que 100 personas de las 400 que se muestrearon dijeron que les gustaba más un nuevo refresco que otro, la mejor estimación de la proporción de la población que favorece el nuevo refresco es 0.25 o 25% que resulta de dividir 100/400. La proporción es la fracción del número de “éxitos” con relación al número muestreado. Veamos su fórmula:
      (X éxitos)=, donde:
      X= número de éxitos
      N= tamaño de la muestra
      Cómo se calcula el intervalo de confianza para proporción de la población
      Donde es el error estándar estimado de la proporción
      Estudios para determinar parámetros
      Con estos estudios pretendemos hacer inferencias a valores poblacionales (proporciones, medias) a partir de una muestra.
      Estimar una proporción:
      Si deseamos estimar una proporción, debemos saber:
      a)  El nivel de confianza o seguridad (1-a ). El nivel de confianza prefijado da lugar a un coeficiente (Za ). Para una seguridad del 95% = 1.96, para una seguridad del 99% = 2.58.
      b)  La precisión que deseamos para nuestro estudio.
      c)  Una idea del valor aproximado del parámetro que queremos medir (en este caso una proporción). Esta idea se puede obtener revisando la literatura, por estudio pilotos previos. En caso de no tener dicha información utilizaremos el valor p = 0.5 (50%).
      Ejemplo: ¿A cuantas personas tendríamos que estudiar para conocer la prevalencia de diabetes?
      Seguridad = 95%; Precisión = 3%: Proporción esperada = asumamos que puede ser próxima al 5%; si no tuviésemos ninguna idea de dicha proporción utilizaríamos el valor p = 0,5 (50%) que maximiza el tamaño muestral:
      donde:
      Za 2 = 1.962 (ya que la seguridad es del 95%)
      p = proporción esperada (en este caso 5% = 0.05)
      q = 1 – p (en este caso 1 – 0.05 = 0.95)
      d = precisión (en este caso deseamos un 3%)
      Si la población es finita, es decir conocemos el total de la población y deseásemos saber cuántos del total tendremos que estudiar la respuesta seria:
      donde:
      N = Total de la población
      Za2 = 1.962 (si la seguridad es del 95%)
      p = proporción esperada (en este caso 5% = 0.05)
      q = 1 – p (en este caso 1-0.05 = 0.95)
      d = precisión (en este caso deseamos un 3%).
      ¿A cuántas personas tendría que estudiar de una población de 15.000 habitantes para conocer la prevalencia de diabetes?
      Seguridad = 95%; Precisión = 3%; proporción esperada = asumamos que puede ser próxima al 5% ; si no tuviese ninguna idea de dicha proporción utilizaríamos el valor p = 0.5 (50%) que maximiza el tamaño muestral.
      Según diferentes seguridades el coeficiente de Za varía, así:
      Si la seguridad Za fuese del 90% el coeficiente sería 1.645
      Si la seguridad Za fuese del 95% el coeficiente sería 1.96
      Si la seguridad Za fuese del 97.5% el coeficiente sería 2.24
      Si la seguridad Za fuese del 99% el coeficiente sería 2.576
       
      Estimar una media:
      Si deseamos estimar una media: debemos saber:
      El nivel de confianza o seguridad (1-a ). El nivel de confianza prefijado da lugar a un coeficiente (Za ). Para una seguridad del 95% = 1.96; para una seguridad del 99% = 2.58.
      La precisión con que se desea estimar el parámetro (2 * d es la amplitud del intervalo de confianza).
      Una idea de la varianza S2 de la distribución de la variable cuantitativa que se supone existe en la población.
      Ejemplo: Si deseamos conocer la media de la glucemia basal de una población, con una seguridad del 95 % y una precisión de ± 3 mg/dl y tenemos información por un estudio piloto o revisión bibliográfica que la varianza es de 250 mg/dl
      Si la población es finita, como previamente se señaló, es decir conocemos el total de la población y desearíamos saber cuantos del total tendíamos que estudiar la respuesta sería:
      (Tomado de http://www.fisterra.com/material/investiga/8muestras/8muestras.htm)
      Error estándar la proporción de la muestra
      Es una medición de la variabilidad de la distribución muestral de las medias muestras. Se calcula por:
      Error estándar de la media con desviación estándar de la población conocida
      Donde:
      = es el error de la media llamado también desviación estándar de la distribución muestra de medias
      = es la desviación estándar de la población
      n= es el tamaño de la muestra
      En la mayoría de los casos se desconoce la desviación estándar de la población, por lo que se le estima por la desviación estándar de la muestra, ello implica que en la fórmula presentada anteriormente se reemplaza (desviación estándar de la muestra) por s (desviación estándar de la muestra). Vale la pena acotar que mientras más mayor sea el valor de n el error en el muestreo es menor
      Características de un buen estimador
      Cuando se tiene una fórmula para estimar y se aplica a una muestra aleatoria, el resultado es aleatorio, es decir los estimadores son variables aleatorias.
      Por ejemplo si se recibe un embarque de objetos que pueden:
               estar listos para usarse ó
               defectuosos.
      Podemos seleccionar al azar algunos de ellos para darnos una idea de la proporción de defectuosos en el embarque. El parámetro de interés es la proporción de defectuosos en toda la población, pero lo que observamos es la proporción de defectuosos en la muestra. El valor de la proporción en la muestra es una variable aleatoria cuya distribución está emparentada directamente con la binomial (si se tratara del número de defectuosos, sería binomial).
      Como cualquier variable aleatoria, el estimador tiene
               Distribución de probabilidad.
               Valor esperado.
               Desviación estándar / varianza.
       
      Valor esperado de un estimador y sesgo
      El valor esperado de un estimador nos da un valor alrededor del cual es muy probable que se encuentre el valor del estimador. Para poner un ejemplo, si supiéramos que el valor esperado de una estadística es 4, esto significaría que al tomar una muestra:
               No creemos que el valor de la estadística vaya a ser 4.
               Pero tampoco creemos que el valor de la estadística vaya a estar lejos de 4.
      Ya que es muy probable que el valor del estimador esté cerca de su valor esperado, una propiedad muy deseable es que ese valor esperado del estimador coincida con el del parámetro que se pretende estimar. Al menos, quisiéramos que el valor esperado no difiera mucho del parámetro estimado. Por esa razón es importante la cantidad que, técnicamente llamamos sesgo. El sesgo es la diferencia entre el valor esperado del estimador y el parámetro que estima.
      Si el sesgo 0, se dice que el estimador es instigado y ésta es una característica buena para un estimador. Un estimador que es instigado tiene una alta probabilidad de tomar un valor cercano al valor del parámetro.
       Varianza de un estimador
      Otra propiedad importante de un estimador es su varianza (o su raíz cuadrada, la desviación estándar). La importancia de la desviación estándar es que nos permite darle un sentido numérico a la cercanía del valor del estimador a su valor esperado.
      Entre menor sea la desviación estándar (o la varianza) de un estimador, será más probable que su valor en una muestra específica se encuentre mas cerca del valor esperado. Para aclarar esto, considere dos estimadores T1 y T2, suponga que ambos son instigados y suponga que la varianza de T1 es menor que la de T2 ¿Qué quiere decir esto? Simplemente que en un entorno fijo del valor del parámetro, los valores de T1 son más probables que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del parámetro que a T2. Esto hace que nuestras preferencias estén con T1. Cuando un estimador tiene una varianza menor que otro decimos que el estimador es más eficiente.
      El mejor estimador es el que se acerca al parámetro poblacional, sus características son:No debe tener sesgo: cuando el valor esperado del estadístico usado como estimador es igual al parámetro de la población que se desea estimar, se dice que ese estimador es insesgado.Eficiencia: la eficiencia tiene relación directa con el dato obtenido del error, a menor error mayor es la eficiencia del estimador. Si las distribuciones de muestreo  de dos estadísticos tienen la misma media(o esperanza), el de menor varianza se llama un estimador eficiente de la media, mientras que el otro se llama un estimador ineficiente, respectivamente. De tal forma que si podemos hallar un estimador con una varianza que resulte menor que la varianza de cualquier otro estimador, tomaremos aquel como base para una medida de eficiencia y diremos que ese es un estimador eficiente.Consistencia: Un estimador tiene consistencia en la medida en que el tamaño de la muestra aumenta, ello nos acerca al parámetro de la población.Suficiencia: Si un estimador utiliza toda la información contenida en la muestra acerca del parámetro que va a estimar, se dice que es un estimador suficiente. 
       
      Cálculo del tamaño de la muestra
      A la hora de determinar el tamaño que debe alcanzar una muestra hay que tomar en cuenta varios factores: el tipo de muestreo, el parámetro a estimar, el error muestral admisible, la varianza poblacional y el nivel de confianza. Por ello antes de presentar un caso sencillo de cálculo del tamaño muestral delimitemos estos factores.
      Para la Media
      La diferencia entre la media de la muestra y la media de la población es un error muestral. Por lo tanto,

      Por lo tanto, de allí se despeja n para calcular el tamaño de la muestra
      Para una población infinita
      Para una población finita
      Para determinar el tamaño de la muestra a partir de la distribución muestral de la media se requiere conocer:
      El nivel de confianza deseado, z
      El error muestral permitido, e
      La desviación estándar,
      Para la Proporción
      Para población infinita, partiendo de la fórmula z
      . Se llega a:
      Para población finita hay que tomar en cuenta el factor de corrección,
      En resumen:
      Parámetro. Son las medidas o datos que se obtienen sobre la población.
      Estadístico. Los datos o medidas que se obtienen sobre una muestra y por lo tanto una estimación de los parámetros.
      Error Muestral, de Estimación o Standard. Es la diferencia entre un estadístico y su parámetro correspondiente. Es una medida de la variabilidad de las estimaciones de muestras repetidas en torno al valor de la población, nos da una noción clara de hasta dónde y con qué probabilidad una estimación basada en una muestra se aleja del valor que se hubiera obtenido por medio de un censo completo. Siempre se comete un error, pero la naturaleza de la investigación nos indicará hasta qué medida podemos cometerlo (los resultados se someten a error muestral e intervalos de confianza que varían muestra a muestra). Varía según se calcule al principio o al final. Un estadístico será más preciso en cuanto y tanto su error es más pequeño. Podríamos decir que es la desviación de la distribución muestral de un estadístico y su fiabilidad.
      Nivel de Confianza. Probabilidad de que la estimación efectuada se ajuste a la realidad. Cualquier información que queremos recoger está distribuida según una ley de probabilidad (Gauss o t de Student), así llamamos nivel de confianza a la probabilidad de que el intervalo construido en torno a un estadístico capte el verdadero valor del parámetro.
      Varianza Poblacional. Cuando una población es más homogénea la varianza es menor y el número de entrevistas necesarias para construir un modelo reducido del universo, o de la población, será más pequeño. Generalmente es un valor desconocido y hay que estimarlo a partir de datos de estudios previos.
      Unidad III
      Prueba de Hipótesis
      Objetivo:
      Aplicar con propiedad y de forma pertinente a situaciones administrativas la prueba de hipótesis
      Contenidos:
      Qué es una hipótesis
      Qué es una prueba de hipótesis
      Contraste de hipótesis
      Paramétricas (Media aritmética y proporción)
      Para una población
      Para dos poblaciones
      “El que aprende y aprende y no practica lo que aprende es como el que ara y ara y nunca siembra.”Platón
      Prueba de Hipótesis
      Siempre las personas, en diversas oportunidades y circunstancias, hemos realizado afirmaciones considerando experiencias previas, conocimientos superficiales de algo, etc. Esas afirmaciones las llamamos hipótesis, y esas hipótesis pueden ser aceptadas o rechazadas; sin embargo en estadística para poder aceptar o rechazar una hipótesis se deben realizar una serie de cálculos que sustenten la veracidad o no de ese supuesto, para ello existe la prueba de hipótesis.
      La prueba de hipótesis es un procedimiento mediante el cual se prueba estadísticamente si una hipótesis es verdadera o no. En esta unidad encontrarás los pasos para realizar una prueba de hipótesis en función de la media aritmética y la proporción para una y dos poblaciones
      UNIDAD III. PRUEBA DE HIPÓTESIS
      ¿Qué es una hipótesis?
      Una hipótesis es una afirmación acerca de un parámetro de la población. Luego, se utilizan los datos para verificar que tan razonable es una afirmación, en otras palabras, la hipótesis es el establecimiento de una tesis a la que con elementos estadísticos se le prueba la veracidad Las hipótesis estadísticas se pueden contrastar con la información extraída de las muestras y tanto si se aceptan como si se rechazan se puede cometer un error.
      Hipótesis estadística Asunción relativa a una o varias poblaciones, que puede ser cierta o no.Enunciado acerca de un parámetro de la población que se desarrolla con el propósito de realizar pruebas.
      ¿Qué es una Prueba de Hipótesis?
      La prueba de hipótesis es un procedimiento en el cual se dan evidencias para afirmar o negar una hipótesis. El primer paso para realizar una prueba de hipótesis es estableciendo la afirmación o suposición sobre un parámetro de una población, como por ejemplo la media. Una hipótesis podría ser que los estudiantes de una aldea de Misión Sucre invierten en promedio Bs. 2000 diarios en pasaje. Para comprobar la validez de la hipótesis , es preciso elegir una muestra de la población (algunos estudiantes de la aldea planteada en la hipótesis) y preguntarles cuanto dinero invierten diariamente en pasaje, calcularle la media y aceptar o rechazar la hipótesis; supongamos que la media resulta ser de Bs. 1990, al ser una cifra tan cercana a2.000 se considera como válida la hipótesis, ya que la diferencia de Bs. 10 puede deverse a un error de muestreo.
      Prueba de Hipótesis:Procedimiento que se basa en la evidencia de las muestras y en la teoría de probabilidad para determinar si la hipótesis es un enunciado razonable.
      Procedimiento para probar una hipótesis
      Existen cinco pasos que sistematiza una prueba de hipótesis, y cuando se llega al paso 5 se está listo para rechazar o aceptar la hipótesis. Veamos los pasos representados en el siguiente diagrama:
      Paso 4Formular la regla de decisiónPaso 3Identificar la estadística de pruebaPaso 2Seleccionar un nivel de significancia hipótesis nula y alternativaPaso 1Establecer las hipótesis nula y alternativa
      Paso 5Tomar una muestra, llegar a una decisiónRechazar H0 yAceptar H1No rechazar H0
      Paso 1: Plantear la hipótesis nula (H0) y la hipótesis alternativa (H1)
      El primer paso consiste en plantear la hipótesis que se prueba, a la cual llamamos hipótesis nula, y se denomina H0, la letra mayúscula H significa hipótesis, y el subíndice cero supone “sin diferencia”. Por lo general, la hipótesis nula incluye un termino “no” que significa que no hay cambio. La hipótesis nula se rechaza o acepta, pero la hipótesis nula no se rechaza a menos que los datos de prueba proporcionen evidencias convincentes que es falsa.
      Se debe recalcar además que si no se rechaza la hipótesis nula, con base en los datos de la muestra, no es posible decir que la hipótesis nula sea cierta. En otras palabras, la imposibilidad de rechazar la hipótesis nula no demuestra que H0 sea verdadera; significa que no fue posible de rechazar H0. Para demostrar la hipótesis nula sería necesario conocer el parámetro de la población y recabar los datos con la población en pleno; como eso es prácticamente imposible, la única alternativa es tomar una muestra de la población.
      Hipótesis nulaUna afirmación respecto del valor de un parámetro de la población
      La hipótesis alternativa describe una conclusión a la que se llegará si se rechaza la hipótesis nula. Se escribe H1, el H sub1 también se le conoce como hipótesis de investigación. La hipótesis alternativa se acepta si los datos de la muestra proporcionan suficiente evidencia estadística de que la hipótesis nula es falsa.
      Hipótesis alternativaUna afirmación que se acepta si los datos de la muestra evidencian suficientemente que la hipótesis nula es falsa.
      Paso 2: Seleccionar el nivel de significancia
      El nivel de significancia es designado con la letra alfa () del alfabeto griego, también se le conoce como nivel de riesgo, y éste quizás sea un termina más apropiado, pues es este nivel es el riesgo que se asume al rechazar la hipótesis nula cuando de hecho es verdadera. No hay un nivel de significancia que se aplique a todas las pruebas, el investigador toma la decisión de utilizar cualquier valor entre 1 y 0, es decir, entre 0 y 10 por ciento.
      Por que se comentó al inicio que el nivel de significancia se podía llamar también de riesgo, porque de acuerdo al nivel de significancia que se establezca se puede cometer el error de rechazar una hipótesis verdadera, observemos este ejemplo planteado por Lind, Mason y Marchal (2003):
      Suponga que una firma que fabrica computadoras personales utiliza una gran cantidad de tarjetas de circuitos impresos. Los proveedores concursan para abastecer las tarjetas y, a quien presenta la cotización más baja, se le otorga un contrato considerable. Suponga también que el contrato especifica que el departamento de control de calidad del fabricante de las computadoras hará un muestreo de todos los embarques de tarjetas de circuitos que reciba. Si más del 6 por ciento de las tarjetas de la muestra están por debajo de la norma, el embarque será rechazado. La hipótesis nula es que los embarques de las tarjetas que se reciben contienen 6 por ciento o menos de tarjetas por debajo de la norma. La hipótesis alternativa es que está defectuoso más del 6% de las tarjetas.
      El embarque de 50 tarjetas del lote que se recibió rebeló que cuatro de ellas, es decir, un 8%, estaban por debajo de la norma, entonces la decisión de regresar las tarjetas al proveedor es correcta. Suponga que las 4 tarjetas seleccionadas en la muestra de 50 eran las únicas defectuosas en todo el embarque de 4.000 tarjetas. Entonces, sólo 1/10 de 1 por ciento estaban defectuosas (4/4000=0,001). En ese caso, menos del 6% de todo el embarque estaba por debajo de la norma y el rechazo del mismo fue un error.
      En la prueba de hipótesis anterior se rechazó la hipótesis nula cuando debió haberse aceptado, este error se denomina de tipo I y se le designa por la letra alfa (). La probabilidad de cometer otro de error llamado tipo II es designado con la letra beta ().
      AcciónH0Es verdaderaH0Es falsaAceptoH0Decisión correctaError tipo IIRechazoH0Error tipo IDecisión correcta
      Error tipo I: Rechazar una hipótesis verdadera.
      Error tipo II: No rechazar una hipótesis nula que es falsa
      Paso 3: Calcular el estadístico de prueba
      Para la prueba de hipótesis se utiliza Z como estadística de prueba, a pesar de que existen muchas otras pruebas estadísticas. En la prueba de hipótesis para la media , la estadística de prueba z se calcula por:
      El valor z se basa en la distribución de muestreo de
      , que tiene una distribución normal cuando la muestra es razonablemente grande con una media igual a y una desviación estándar , que es igual a . Así es posible determinar la diferencia entre y es importante desde el punto de vista estadístico, al encontrar cuantas desviaciones estándar separan a de , utilizando la formula de z.
      Paso 4: Formular la regla de decisión
      Una regla de decisión es una afirmación de las condiciones bajos las que se rechaza la hipótesis la y bajo las que no se rechaza. El área de rechazo define la ubicación de todos aquellos valores que son tan grandes o tan pequeños que la probabilidad de que ocurran bajo una hipótesis nula verdadera es bastante remota. En el gráfico que se muestra a continuación el valor crítico es 1,65 es divide la zona de rechazo o aceptación de la hipótesis
      Región de rechazoProbabilidad de 0,05Probabilidad de 0,95Valor Crítico
      Valor CríticoPunto de división entre la región en que se rechaza la hipótesis nula y la región en la que no se rechaza
      1257300114300
      Los valores críticos determinan la zona de rechazo. Para hallarlos se divide entre dos el 95%. En la tabla z (revisar anexos), el área de 0,95/2=0,4750 lo que indica un valor de 1.96. El 5% restante está distribuido entre las dos colas, son 2,5% en cada zona de rechazo. Es posible encontrar los valores críticos al otro lado de la cola:
      Paso 5: Tomar una decisión
      Este último paso consiste en decidir si rechazar o no la hipótesis nula. La regla de decisión es: No se rechaza la hipótesis nula si los valores z están entre . Se rechaza si el valor z es menor que -1,96 o mayor que +1,96.
      Prueba de una o dos colas
      Una prueba es de una cola cuando la hipótesis alterna, H1, establece una dirección, como:
      H0 : el ingreso medio de las mujeres es menor o igual al ingreso medio de los hombres.
      H1 : el ingreso medio de las mujeres es mayor que el de los hombres.
      Distribución de muestreo para el valor estadístico z, prueba de una cola, nivel de significancia de .05
      125730015240
      Una prueba es de dos colas cuando no se establece una dirección específica de la hipótesis alterna H1, como:
      H0: el ingreso medio de las mujeres es igual al ingreso medio de los hombres.H1: el ingreso medio de las mujeres no es igual al ingreso medio de los hombres.
      Distribución de muestreo para el valor estadístico z, prueba de dos colas, nivel de significancia de 0.05
      262890032004011430091440 
      Prueba para la media poblacional: muestra grande, desviación estándar poblacional conocida
      Cuando se hace una prueba para la media poblacional de una muestra grande y se conoce la desviación estándar, el estadístico de prueba está dado por:
      Ejemplo:
      Una cooperativa fabricante de salsa de tomate indican en su etiqueta que el contenido de la botella es de 16 onzas. Cada hora se toma una muestra de 36 botellas y se pesa el contenido. La muestra de la última hora tiene un peso medio de 16.12 onzas con una desviación estándar de .5 onzas. ¿Está el proceso fuera de control para un nivel de significancia de .05?
       
      Paso 1: establezca la hipótesis nula y alterna
      Paso 2: establezca la regla de decisión:
      Paso 3: calcule el valor del estadístico de prueba: H0 se rechaza si z <- 1.96 o z > 1.96
       
      Paso 4: decisión sobre H0: no se rechaza H0 porque 1.44 es menor que el valor crítico 1.96
      Si se desconoce la desviación estándar de la población y el tamaño de la muestra es n
      Ejemplo en la cual se indica el procedimiento para la prueba de hipótesis (Tomado de monografías.com)
      El jefe de la Biblioteca Especializada de la Facultad de Ingeniería Eléctrica y Electrónica de la UNAC manifiesta que el número promedio de lectores por día es de 350. Para confirmar o no este supuesto se controla la cantidad de lectores que utilizaron la biblioteca durante 30 días. Se considera el nivel de significancia de 0.05
      Datos:
      Día UsuariosDía UsuariosDía Usuario135611305214292427124132237633871339123328451014380244115288153822539762901638926365732017405274058350182932836994031927629429
      Se trata de un problema con una media poblacional: muestra grande y desviación estándar poblacional desconocida.
      Paso 01: Seleccionamos la hipótesis nula y la hipótesis alternativa
      Ho: μ═350
      Ha: μ≠ 350
      Paso 02: Nivel de confianza o significancia 95%
      α═0.05
      Paso 03: Calculamos o determinamos el valor estadístico de prueba
      De los datos determinamos: que el estadístico de prueba es t, debido a que el numero de muestras es igual a 30, conocemos la media de la población, pero la desviación estándar de la población es desconocida, en este caso determinamos la desviación estándar de la muestra y la utilizamos en la formula reemplazando a la desviación estándar de la población.
      Calculamos la desviación estándar muestral y la media de la muestra empleando
      Es importante que sepas que en el programa Excel de Microsoft Office puedes calcular diversos estadísticos como la media, la desviación estándar entre otros, de forma muy fácil y rápida.
      Paso 04: Formulación de la regla de decisión.
      La regla de decisión la formulamos teniendo en cuenta que esta es una prueba de dos colas, la mitad de 0.05, es decir 0.025, esta en cada cola. el área en la que no se rechaza Ho esta entre las dos colas, es por consiguiente 0.95. El valor critico para 0.05 da un valor de Zc = 1.96.
      Por consiguiente la regla de decisión: es rechazar la hipótesis nula y aceptar la hipótesis alternativa, si el valor Z calculado no queda en la región comprendida entre -1.96 y +1.96. En caso contrario no se rechaza la hipótesis nula si Z queda entre -1.96 y +1.96.
      Paso 05: Toma de decisión.
      En este ultimo paso comparamos el estadístico de prueba calculado Z = 2.38 y lo comparamos con el valor critico de Zc = 1.96. Como el estadístico de prueba calculado cae a la derecha del valor critico de Z, se rechaza Ho. Por tanto no se confirma el supuesto del Jefe de la Biblioteca.
      Si el tamaño de la muestra es n se utiliza la distribución t de Student:
      Prueba para dos medias de población
      En este caso se trabaja con las medias de poblaciones. El objetivo es probar si es razonable llegar a la conclusión de que las dos medias de la población son iguales (y por lo tanto que las dos poblaciones tienen una media común), o que la diferencia entre ambas medias de muestra es tan grande que se debería concluir que las medias de la población no son iguales. Esto tiene muchas utilidades, por ejemplo sirve para un jefe de planta conocer el rendimiento promedio de los trabajadores del turno de la mañana difiere al del los trabajadores del turno de la noche.
      En estos casos es necesario seleccionar muestras aleatorias de las dos poblaciones, calcular las medias de cada muestra y determinar si es razonable que ambas sean iguales. Para este caso se siguen igualmente los cinco pasos planteados pero habrá una diferencia en la fórmula para la estadística z:
      Ejemplo Prueba de hipótesis con dos poblaciones
      (tomado de www.monografías.com)
      En el HMI Ramos Larrea, se realizó un estudio para comparar la efectividad de dos tratamientos diferentes para la diarrea aguda, se seleccionaron 15 niños de 1 a 2 años de edad con diarrea aguda, fueron divididos en dos subgrupos, al subgrupo A se le dio como tratamiento SRO y al subgrupo B se le dio como tratamiento SRO+Cocimiento de arroz. Después de tres días de tratamiento, se registró la frecuencia de evacuaciones de los niños. Los resultados fueron los siguientes:
      GRUPO A3434445GRUPO B41231323
      ¿Proporcionan los datos evidencias suficientes que indique que la efectividad de los dos tratamientos no es la misma? Utilice un nivel de significación de 0.05.
      Solución:
      1. Planteamiento de hipótesis:
      Ho: μ1 = μ2
      H1: μ1 ≠ μ2
      2. Nivel de significancia de: α = 0.05
      3. Prueba estadística:
      0,38
      El valor 0,38 se busca en la tabla de valores z dentro de la columna de valor de significación de 0.05, ello nos da 0,6736, valor muy por encima de . Ahora con este dato revisamos la zona de rechazo para tomar la decisión.
      Con los supuestos:
      Las poblaciones se distribuyen normalmente
      Las muestras han sido seleccionadas al azar.
      Criterios de decisión:
      Se rechaza la hipótesis nula (Ho), se acepta la hipótesis alterna (H1) a un nivel de significancia de α = 0.05. La prueba resulto ser significativa. La evidencia estadística no permite aceptar la hipótesis nula. La evidencia estadística disponible permite concluir que probablemente existe diferencia entre los dos tratamientos empleados en casos de diarrea aguda.
      Pruebas respecto de las proporciones
      Como lo hemos venido trabajando para probar una hipótesis calculamos un valor z y lo comparamos con un valor crítico de Z con base al nivel de significancia seleccionado. El valor p para probar hipótesis es un método alternativo en caso de variables discretas. El valor p también es aplicado a hipótesis de una cola o de dos colas.
      Un ejemplo de las hipótesis que podemos manejar con la prueba de proporción son:
      Los miembros de la Comisión Académica Nacional del plan deformación Administración informa que el 80% de los estudiantes certificados como Asistentes Administrativos entran al mercado laboral desempeñándose en actividades afines con su acreditación.
      El representante de una importante cadena de farmacias afirma que la mitad de sus ventas se realizan por los autoservicios.
      Estas preguntas abarcan los datos de una escala nominal de mediación, si recordamos Estadística I esta escala se caracteriza por tener categorías sin un orden valor de jerarquización, por ejemplo la raza, la religión, etc.
      Proporción (p)Una fracción, relación o porcentaje que indica la parte de la población o muestra que tiene una característica de interés particular.
      Un ejemplo de proporción es que 87 personas de 100 afirmaron tener mascotas en su casa. La proporción de la muestra es 87/100=0,87 o 87%. Para probar una hipótesis sobre una proporción de una población se elige una muestra aleatoria de la población que cumpla con las suposiciones binomiales explicadas. Esta prueba es apropiada cuando tanto np como n(1-p) son al menos de 5.n (n=tamaño de la muestra, p=proporción de la población)
      Se establece el nivel de significancia y se procede a calcular el valor z
      Prueba de hipótesis para una proporción poblacional
      , donde:
      P es la proporción de la población
      p es la proporción de la muestra
      n tamaño de la muestra
      es el error estándar de la proporción de la población. Se calcula por
      Prueba de hipótesis para una proporción
      Por último se toma la decisión.
      Ejemplo:
      Una encuesta aplicada en Caracas a 2.000 personas reveló que 1550 de ellas realizas compras en los megamercados realizados quincenalmente a la Av. Bolívar. La proporción de 0,775 (1550/2000=0.775) está bastante cerca de 0,80 para llegar a la conclusión de la mayoría de la población de Caracas compra sus alimentos en los megamercados con regularidad.
      Z es una estadística de prueba normalmente distribuida cuando la hipótesis es verdad y las demás suposiciones también son verdaderas.
      P es 0,775, la proporción de la muestra
      N es 2000, el número de encuestados
      P es 0,80, la proporción hipotética de la población
      2303145229870El valor z -2,80 está en la zona de rechazo, de modo que la hipótesis nula queda rechazada en el nivel 0,05.
      Ejercicio:
      Se dan las siguientes hipótesis
      H0= p
      H1=p>0.70
      Una muestra de 100 observaciones reveló que p=0.75. En el nivel de significancia de 0,05¿Es posible rechazar la hipótesis nula?
      Prueba para la Diferencia entre dos Proporciones Poblacionales
      En este tipo de pruebas interesa saber si dos proporciones de la población son iguales. A continuación se presentan algunos ejemplos:
      Una cooperativa de ropa casual elaboró un nuevo diseño de camisas para caballeros, el nuevo modelo se le mostró a un grupo de posibles compradores menores de 30 años y a otros mayores de 60 años. La cooperativa desea saber si existe diferencia en la proporción de personas de ambos grupos a quienes les gusta el nuevo diseño.
      Una aerolínea está investigando sobre el miedo a volar entre adultos, de forma específica quieren saber si existe alguna diferencia significativa entre la proporción de hombres y de mujeres.
      Prueba de proporciones de dos muestras
      Donde:
      n1 es el número en la primera muestra
      n2 es el número en la segunda muestra
      p1 es la proporción en la primera muestra que posee la característica
      p2 es la proporción en la segunda muestra que posee la característica
      pc es la proporción conjunta que posee la característica en la muestra combinada, se calcula con la siguiente fórmula:
      Proporción conjunta

      Donde:
      X1 es el número que posee la característica en la primera muestra
      X2 es el número que posee la característica en la segunda muestra
      Ejemplo
      Una fábrica de perfumes desarrollo una nueva fragancia llamada Rojo. Varias pruebas indican que tiene una muy buena aceptación en el mercado, sin embargo interesa saber si el perfume lo prefieren mujeres jóvenes o maduras. Se tomará una muestra aleatoria de mujeres jóvenes y maduras y se les realizará una prueba dándoles a oler varios perfumes entre ellos Rojo y se les piden que indiquen el que más les guste.
      H0 no hay diferencia entre la proporción de mujeres jóvenes y maduras que prefieren Rojo. La hipótesis alterna es que ambas proporciones no son iguales.
      Ho:
      H1:
      Seleccionemos el nivel de significancia, utilizaremos el 0.05
      n1: mujeres jóvenes=100
      X1: las que prefirieron Rojo=20
      n2: mujeres maduras=200
      X2: las que prefirieron rojo=100
      La proporción conjunta o ponderada
      Observemos que la proporción conjunta de 0.40 está más cerca de 0.50 que de 0.20. Esto se debe a que el muestreo incluyó más mujeres maduras.
      El valor z calculado de -5 está en el área de rechazo, es decir, que la hipótesis de que es igual la proporción de mujeres jóvenes y maduras que prefieren Rojo se rechaza, por lo que se acepta la hipótesis alternativa.
      Ejercicios: Realízalos y compártelos con tu grupo de estudio y tu profesor asesor.
      De 150 adultos que probaron unos caramelos nuevos de sabor a durazno, 87 les parecieron muy buenos. De 200 niños a 123 les gustaron muchísimo. Utilizando un nivel de significancia de 0.10 se puede concluir que existe una diferencia significativa en la proporción de adultos contra la de niños que consideran el nuevo sabor como excelente.
      Cuál es la hipótesis nula y la alternativa
      Cual es la probabilidad de un error tipo I
      Es una prueba de una o dos colas, por qué
      Cual es el valor crítico
      Debería rechazarse la hipótesis nula
      Las hipótesis son: H0: y H1: . Una muestra de 200 observaciones de la primera población indicó que X1 es 170. Una muestra de 150 observaciones de la segunda población reveló que X2 es de 110. Use el nivel de significancia de 0.05 para probar la hipótesis.
      Unidad IV
      Regresión y Correlación
      Objetivo:
      Interpretar el coeficiente de correlación y determinación con el propósito de obtener la relación o variación entre dos variables.
      Contenidos:
      Variables dependiente e independientes
      Gráfico de dispersión
      Coeficiente de correlación
      Correlación lineal
      Coeficiente de determinación
      Modelo de análisis de regresión lineal
      Recta de mínimos cuadrados
      Error estándar de estimación
      “Lo maravilloso de aprender algo es que nadie puede arrebatárnoslo.” B.B.King
      Regresión y Correlación
      La regresión y la correlación son las dos herramientas estadísticas más eficaces que se pueden utilizar para solucionar problemas comunes en la administración por el hecho de que se emplean para identificar y cuantificar la relación entre dos o más variables.
      El análisis de regresión consiste en estimar el valor de la variable dependiente a partir de un valor conocido, el cual denominamos variable independiente a través de la ecuación de regresión. Existen dos tipos de análisis de regresión el simple y el múltiple. El análisis de regresión simple indica el valor de una variable dependiente estimado a partir de una variable independiente. Mientras que el análisis de regresión múltiple se ocupa de la estimación del valor de una variable dependiente con base a dos o más variables independientes.
      El análisis de correlación mide la magnitud de la relación entre las variables. Así podemos precisar que la regresión establece la relación y la correlación la amplitud de esa relación.
      UNIDAD IV. REGRESIÓN Y CORRELACIÓN
      Variable Dependiente e Independiente
      La palabra variable la asociamos con cambio, en estadística denominamos variable a un dato que puede asumir cualquier valor, es decir, cambiante. Si seguimos utilizando la semántica, el significado de las palabra dependiente es algo que sucede como consecuencia de otro evento, e independiente por su parte es el antónimo, lo contrario a dependiente.
      Considerando la exposición previa, la variable independiente es aquella que ocurre sin control y la dependiente es un resultado de la independiente, la variable dependiente se mide, la independiente se manipula o controla. En regresión y correlación como lo que se desea es conocer la relación entre variables, la variable dependiente es la que se desea explicar mientras que la independiente es la variable explicativa. Se dice que una variable depende de la otra. Se puede decir que Y depende de X en donde Y y X son dos variables cualquiera. Esto se puede escribir así:
      Y es una función de X =>
      Debido a que Y depende de X, Y es la variable dependiente y X la variable independiente. Es importante identificar cual es la variable dependiente y cuál es la variable independiente en el modelo de regresión. Esto depende de la lógica y de lo que el estadístico intente medir. Por ejemplo, si el coordinador de una aldea de Misión Sucre decide analizar la relación entre las calificaciones de los estudiantes de estadística II y el tiempo que pasan estudiando para dicha materia, al recolectar la información se puede presumir que las notas dependen de la cantidad y calidad del tiempo que los participantes dedican a estudiar; por lo tanto las notas son la variable dependiente y el tiempo de estudio la variable independiente.
      Ejercicio:
      A continuación escribe cuatro casos en los cuales reflejes las variables dependiente e independiente:
      CasoVariable dependienteVariable independiente
      Cuando hayas hecho la actividad compártela con tu grupo de estudio
      La variable dependiente o también llamada variable de respuesta es aquella que se va a predecir.La variable independiente o de predicción es la que da la base de estimación.
      Diagrama de Dispersión
      Para recordar…Las medidas de tendencia central (estudiadas en Estadística I) carecen de significado si a la par no se realiza el cálculo de las medidas de dispersión para poder observar cuanto difieren unos valores de otros.
      Un diagrama de dispersión es una gráfica en la que cada punto trazado representa un par de valores observados de las variables independiente y dependiente. El valor de la variable independiente X se identifica respecto del eje horizontal, mientras que el valor de la variable dependiente Y se identifica respecto del eje vertical.
      Un diagrama de dispersión refleja la relación entre dos variables.
      Correlación Lineal
      En ocasiones nos puede interesar estudiar si existe o no algún tipo de relación entre dos variables aleatorias. Por ejemplo, podemos preguntarnos si hay alguna relación entre las notas de la asignatura Estadística I y las de Matemáticas I. Una primera aproximación al problema consistiría en dibujar en el plano un punto por cada alumno: la primera coordenada de cada punto sería su nota en estadística, mientras que la segunda sería su nota en matemáticas. Así, obtendríamos una nube de puntos la cual podría indicarnos visualmente la existencia o no de algún tipo de relación (lineal, parabólica, exponencial, etc.) entre ambas notas.
      Otro ejemplo, consistiría en analizar la facturación de una empresa en un periodo de tiempo dado y de cómo influyen los gastos de promoción y publicidad en dicha facturación. Si consideramos un periodo de tiempo de 10 años, una posible representación sería situar un punto por cada año de forma que la primera coordenada de cada punto sería la cantidad en euros invertidos en publicidad, mientras que la segunda sería la cantidad en euros obtenidos de su facturación. De esta manera, obtendríamos una nube de puntos que nos indicaría el tipo de relación existente entre ambas variables. En particular, nos interesa cuantificar la intensidad de la relación lineal entre dos variables.
      El parámetro que nos da tal cuantificación es el coeficiente de correlación lineal de Pearson r, cuyo valor oscila entre –1 y +1 :
        
      Correlación de Pearson
      Definición. Creado por Kart Pearson en el siglo XIX, es una técnica estadística que permite evaluar el grado o nivel de relación entre dos variables, en otras palabras, es una herramienta que permite evaluar en que medida el comportamiento de una variable dependiente se ve afectada por la acción directa de una variable independiente. Por ejemplo, si queremos establecer la razón del incremento de las ventas al detal en el mes de diciembre (variable dependiente), es muy probable que encontremos una correlación elevada si la cruzamos con la variable independiente ingreso familiar. La correlación lineal adquiere valores entre -1 y 1.
      0= correlación nula.
      +1= Correlación directamente proporcional perfecta
      -1= Correlación inversamente proporcional perfecta

      Correlación directamente proporcional.
      La CDP se traduce en afirmar que a medida que aumenta la magnitud de la variable independiente, lo hace igualmente la magnitud de la variable dependiente, un ejemplo sencillo de ello lo encontramos si revisamos la correlación entre las variables ingreso familiar y gasto en alimentación, así, a medida que aumente el ingreso familiar, se espera un incremento en los gastos de alimentación de una familia promedio. Se habla de una correlación directamente proporcional perfecta cuando la formula de producto momento de Pearson da un resultado de 1, esto en la realidad nunca ocurre, (ver correlaciones espurias y variables extrañas), ya que es muy difícil que el comportamiento de una variable se vea únicamente afectada por el comportamiento de otra, de allí el auge que actualmente tiene la estadística multivariada que estudia la correlación entre una Vd y varias Vi.
      Grafico. Diagrama de Dispersión. r= +1
      171450084455
      Variables extrañas o correlaciones espurias. Cuando se estudia la correlación entre dos variables hay que tener presente la influencia de muchas otras variables conocidas y desconocidas y controlables o no controlables, llamadas variables extrañas; por ejemplo, una variable dependiente como las reservas internacionales de un país puede verse afectada en gran parte por el control de las divisas que un estado ejecuta; sin embargo hay otras variables como el gasto público, las tragedias naturales, el nivel de inflación, etc., que también pueden incidir en mayor o menor medida sobre dicha variable dependiente.
      Correlación inversamente proporcional.
      La CIP indica, que a medida que el valor de una variable aumente, el valor de la otra disminuye, un ejemplo de esto lo encontramos si correlacionamos las variables altitud y concentración de oxigeno, vemos así como a medida que aumenta la altitud, disminuye la concentración de oxigeno en el aire, de allí por ejemplo la dificultad con la que se respira en el pico Bolívar. Se habla de una correlación inversamente proporcional perfecta cuando la formula de producto momento de Pearson da un resultado de -1, esto en la realidad nunca ocurre, (ver correlaciones espurias y variables extrañas), ya que como en el caso de la correlación directamente proporcional perfecta es muy difícil que una variable se vea únicamente influenciada por otra.
      Grafico. Diagrama de dispersión. r= -1
      148590072390
      Interpretación de la Correlación
      El coeficiente de correlación como previamente se indicó oscila entre –1 y +1 encontrándose en medio el valor 0 que indica que no existe asociación lineal entre las dos variables a estudio. Un coeficiente de valor reducido no indica necesariamente que no exista correlación ya que las variables pueden presentar una relación no lineal como puede ser el peso del recién nacido y el tiempo de gestación. En este caso el r infraestima la asociación al medirse linealmente. Los métodos no paramétrico estarían mejor utilizados en este caso para mostrar si las variables tienden a elevarse conjuntamente o a moverse en direcciones diferentes.
      La significancia estadística de un coeficiente debe tenerse en cuenta conjuntamente con la relevancia clínica del fenómeno que estudiamos ya que coeficientes de 0.5 a 0.7 tienden ya a ser significativos como muestras pequeñas. Es por ello muy útil calcular el intervalo de confianza del r ya que en muestras pequeñas tenderá a ser amplio. La estimación del coeficiente de determinación (r2) nos muestra el porcentaje de la variabilidad de los datos que se explica por la asociación entre las dos variables.
      La correlación elevada y estadísticamente significativa no tiene que asociarse a causalidad. Cuando objetivamos que dos variables están correlacionadas diversas razones pueden ser la causa de dicha correlación: a) pude que X influencie o cause Y, b) puede que influencie o cause X, c) X e Y pueden estar influenciadas por terceras variables que hace que se modifiquen ambas a la vez. El coeficiente de correlación no debe utilizarse para comparar dos métodos que intentan medir el mismo evento, como por ejemplo dos instrumentos que miden la tensión arterial. El coeficiente de correlación mide el grado de asociación entre dos cantidades pero no mira el nivel de acuerdo o concordancia. Si los instrumentos de medida miden sistemáticamente cantidades diferentes uno del otro, la correlación puede ser 1 y su concordancia ser nula.
      Valores que asume y como interpretarlos. 0= correlación nula, no existe relación entre A y B+1= Correlación directamente proporcional perfecta,a medida que aumenta A, aumenta B-1= Correlación inversamente proporcional perfecta,a medida que aumenta A, disminuye B
      Coeficiente de Correlación
      El coeficiente de correlación es un grupo de técnicas para medir la magnitud de la relación entre dos variables, para ello se suele graficar todos los datos en un diagrama de dispersión
      Un coeficiente de Correlación es una medida de la magnitud de la relación lineal entre dos variables.
      Para determinar el valor numérico del coeficiente de correlación usamos la fórmula siguiente
      Donde:
      n: es el número de pares de observaciones
      : es la suma de las variables X
      : es la suma de las variables Y
      (): es la suma de los cuadrados de la variable X
      ()2 : es la suma de las variables X elevadas al cuadrado
      () : es la suma de los cuadrados de la variable Y
      ()2: es la suma de las variables Y elevada al cuadrado
      : es la suma de los productos de X y Y
      Sin embargo la correlación que se halle entre dos variables puede deberse a una casualidad o un error de muestreo para verificar que esto no sea así se aplica una prueba de significancía del coeficiente de correlación, esto se realiza calculando un valor t y aplicando la prueba de hipótesis, sólo que en esta oportunidad utilizaremos la tabla de valores t (ver anexos) para verificar si la hipótesis plantead queda dentro o fuera del área de rechazo.
      Prueba t para el coeficiente de correlación
      con n-2 grados de libertad
      La regla de decisión para la prueba de hipótesis con un nivel de significancia de 0,05:
      Región de rechazoRegión de rechazo-2,306 0 +2,306
      El Coeficiente de Determinación
      El coeficiente de determinación es una medida más precisa, se obtiene elevando al cuadrado el coeficiente de correlación. Es una proporción de la variación total de la variable dependiente Y que se explica por, o se debe a, la variación en la variable independiente X.
      Modelo de Análisis de Regresión Lineal
      Análisis de Regresión
      Es un modelo matemático para expresar la relación entre dos variables y estima el valor de la variable dependiente Y basándonos en el valor de la variable independiente X.
      Análisis de RegresiónEs una ecuación que define la relación entre dos variables.
      Principio de los mínimos cuadrados
      Este método proporciona un mejor ajuste y consiste en determinar la ubicación de la línea de regresión. Este principio es el mejor porque la suma de los cuadrados de las desviaciones verticales respecto de ella es la mínima. La forma general de la ecuación de regresión es:
      Donde:
      Y’: se lee Y prima, es el valor predictorio de la variable Y para un valor de X seleccionado.
      a: es la intersección con el eje Y. Es el valor estimado de Y cuando X=0. Otra manera de expresar este es: a es valor estimado de Y donde la línea de regresión cruza el eje Y cuando X es cero.
      b: es la pendiente de la línea, o el cambio de la línea de regresión en Y’ por cada cambio en una unidad (ya sea aumentando o disminuyendo) de la variable independiente X.
      X: es el valor que se escoge para la variable independiente.
      A los valores a y b de la ecuación de regresión se les conoce como coeficientes estimados de regresión o coeficientes de regresión.
      Pendiente de la línea de regresión
      Intersección con el eje Y
       Donde:
      X: es un valor de la variable independiente
      Y: es un valor de la variable dependiente
      n: es el número de elementos de la muestra
      Error estándar de Estimación
      Error Estándar de EstimaciónUna medida de dispersión de los valores observados alrededor de la línea de regresión.Es una medida que describe que tan precisa es la predicción de Y con la base en X o, inversamente, que tan inexacta puede ser la estimación. El error estándar de estimación se denota con la letra sx.y. La desviación estándar mide la dispersión alrededor de la media; el error estándar de estimación mide dispersión alrededor de la línea de regresión.
      El error estándar se calcula mediante la ecuación que presentaremos a continuación. Sin embargo observemos que la ecuación es muy parecida a la de desviación estándar de la muestra, con la diferencia que es sustituida por Y’
      Error estándar de estimación
      O también podemos emplear la siguiente fórmula:
      Suposiciones la emplear el Análisis de Regresión Lineal
      Para cada valor X hay un grupo de valores Y, y estos valores Y están distribuidos normalmente.
      Todas las medias de estas distribuciones normales de Y están sobre la línea de regresión.
      Las desviaciones estándar de estas distribuciones normales son iguales.
      Los valores de Y son estadísticamente independientes. Este significa que al seleccionar una muestra, el valor Y escogido para una X determinada no depende del valor de Y para ningún otra X.
      Respuestas
      Ejercicio 1:
      Clasifica los siguientes eventos:
      El lanzamiento de dos monedas a la vez ________Independiente______________
      Que un vuelo de avión salga retrasado __ Mutuamente excluyente y Complementario
      Que un bebé sea varón __Mutuamente excluyente y colectivamente exhaustivo
      Que la comida de hoy no quede salada __Mutuamente excluyente y Complementario
      Que en la próxima temporada de béisbol Magallanes sea el campeón Colectivamente exhaustivo
      Ejercicio 2
      Ejercicio 3
      P= 0.4
      Q= 0.6
      N= 5
       
      Realicemos el cálculo de cada valor de R:
       
      Para R= 0 obtenemos que: P(0) = 5!/ 0!(5-0)! (0.4 )0 (0.6)5, P(0) = 0.07776
       
      Para R= 1 obtenemos que: P(1) = 5!/ 1!(5-1)! (0.4 )1 (0.6)4, P(1) = 0.2592
       
      Para R=2 obtenemos que: P(2) = 5!/ 2!(5-2)! (0.4 )2 (0.6)3, P(2) = 0.3456
       
      Para R= 3 obtenemos que: P(3) = 5!/ 3!(5-3)! (0.4 )3 (0.6)2 P(3) = 0.2304
       
      Para R= 4 obtenemos que: P(4) = 5!/ 4!(5-4)! (0.4 )4 (0.6)1 P(4) = 0.0768
       
      Para R= 5 obtenemos que: P(5) = 5!/ 5!(5-5)! (0.4 )5 (0.6)0, P(5) = 0.01024
       
      Ejercicio 4:
      Ejercicio 5
      " Salir a la pizarra" , le damos el valor 1 y tiene una probabilidad del 0,10
      " No salir a la pizarra" , le damos el valor 0 y tiene una probabilidad del 0,9
      La media y la varianza de cada variable independiente es:
      m = 0,10
      s2 = 0,10 * 0,90 = 0,09
      Por tanto, la suma de las 100 variables se distribuye según una normal cuya media y varianza son:
      Media : n * m = 100 * 0,10 = 10
      Varianza : n * s2 = 100 * 0,09 = 9
      Para calcular la probabilidad de salir a la pizarra más de 15 veces, calculamos el valor equivalente de la variable normal tipificada:
      Luego:
      P (X > 15) = P (Y > 1,67) = 1 - P (Y < 1,67) = 1 - 0,9525 = 0,0475
      Es decir, la probabilidad de tener que salir más de 15 veces a la pizarra a lo largo del curso es tan sólo del 4,75%.
      Bibliografía
      Berenson, M. y Levine, D (1996) Estadística Básica en Administración. Pretince Hall:México. México DF.
      Gonzalez, E. (2000) Estadística General. Ediciones de la biblioteca UCV: Carcas, Venezuela.
      Kazmier, L. (1998) Estadística aplicada a la Administración y a la Economía. Mc Graw Hill: México DF, México.
      Lind, D., Mason, R. y Marchal, W. (2001) Estadística para Administración y Economía. Mc Graw Hill Interamericana: México D.F. México
      Salama, D. (2002) Estadística. Metodología y aplicaciones. Editorial Torino: Caracas, Venezuela.
      Webster, A. (2000) Estadística Aplicada a los Negocios y a la Economía. Irwin-Mc Graw Hill: Santa fé de Bogotá, Colombia.
      ANEXOS4114800-114300TABLA DE DISTRIBUCIÓN NORMAL TIPIFICADA N(0,1)
      Manejo de Tablas. Casos Más Frecuentes (Zonas de aceptación o rechazo)
      171450-13970      43815-399415      -87630-842645   
      Distribución t de Student