• Share
  • Email
  • Embed
  • Like
  • Save
  • Private Content
Conceptos
 

Conceptos

on

  • 1,171 views

 

Statistics

Views

Total Views
1,171
Views on SlideShare
1,171
Embed Views
0

Actions

Likes
0
Downloads
10
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Microsoft Word

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Conceptos Conceptos Document Transcript

    • INSTITUTO DE ESTUDIOS SUPERIORES DE CHIAPAS UNIVERSIDAD SALAZAR ASESOR: DR. VICTOR AVENDAÑO PORRAS DOCTORADO EN: “ADMINISTRACIÓN” Materia: SEMINARIO DE INVESTIGACIÓN II Titulo: DEFINICIÓN CONCEPTOS MATEMÁTICOS Alumno: Lic. Majin C. Ruiz Díaz Tuxtla Gutiérrez, Chiapas; Mayo de 2012.
    • MEDIAEn matemáticas y estadística una media o promedio es una medida de tendenciacentral que según la Real Academia Española, resulta al efectuar una seriedeterminada de operaciones con un conjunto de números y que, en determinadascondiciones, puede representar por sí solo a todo el conjunto. Existen distintostipos de medias, tales como la media geométrica, la media ponderada y la mediaarmónica aunque en el lenguaje común, el término se refiere generalmente a lamedia aritmética.La media aritmética es un promedio estándar que a menudo se denomina"promedio". La media se confunde a veces con la mediana o moda. La mediaaritmética es el promedio de un conjunto de valores, o su distribución; sinembargo, para las distribuciones con sesgo, la media no es necesariamente elmismo valor que la mediana o que la moda. La media, moda y mediana sonparámetros característicos de una distribución de probabilidad. Es a veces unaforma de medir el sesgo de una distribución tal y como se puede hacer en lasdistribuciones exponencial y de Poisson.Por ejemplo, la media aritmética de 34, 27, 45, 55, 22, 34 (seis valores) es:34+27+45+55+22+34= 217 = 36.167 6 6 ERRORES TÍPICOSEn estadística, un error típico se refiere a las variaciones que son a menudoinevitables. El error típico puede definirse también como la variación producida porfactores distorsionantes tanto conocidos como desconocidos.Tipos de error. Se pueden definir los siguientes tipos de error:
    • Error de tratamiento. Debido a la incapacidad de replicar o repetir el tratamiento desde una aplicación y la siguiente. Error de estado. Debido a cambios aleatorios en el estado físico de las unidades experimentales. Error de medida. Debido a las imprecisiones en el proceso de medición o recuento. Error de muestreo. Debido a la selección aleatoria de unidades experimentales para la investigación. Error experimental. Está asociado a una unidad experimental, refleja las diferencias entre las múltiples unidades experimentales, es decir, una unidad experimental no puede ser replicada en forma exacta. Error observacional. Está asociado a las unidades observacionales; es un reflejo del error de medición y del error del muestreo (además de otros factores). MEDIANA (ESTADÍSTICA)En el ámbito de la estadística, la mediana, representa el valor de la variable deposición central en un conjunto de datos ordenados. De acuerdo con estadefinición el conjunto de datos menores o iguales que la mediana representarán el50% de los datos, y los que sean mayores que la mediana representarán el otro50% del total de datos de la muestra. La mediana coincide con el percentil 50, conel segundo cuartil y con el quinto decil. Su cálculo no se ve afectado por valoresextremos.CálculoEs el valor medio en un conjunto de valores ordenados. Corresponde al percentil50 o segundo cuartil (P50 o Q2). Los pasos son: 1) Arregla los valores en orden
    • del menor al mayor 2) Cuenta de derecha a izquierda o al revés hasta encontrar elvalor o valores medios. Ejemplo: tenemos el siguiente conjunto de números8,3,7,4,11,2,9,4,10,11,4 ordenamos: 2,3,4,4,4,7,8,9,10,11,11 En esta secuencia lamediana es 7, que es el número central. Y si tuviésemos: 8,3,7,4,11,9,4,10,11,4,entonces ordenamos: 3,4,4,4,7,8,9,10,11,11 y la mediana (Md) está en: losnúmeros centrales son 7 y 8, lo que haces es sumar 7 + 8 y divides entre 2 y Md=7.5.Existen dos métodos para el cálculo de la mediana: 1. Considerando los datos en forma individual, sin agruparlos. 2. Utilizando los datos agrupados en intervalos de clase. MODA (ESTADÍSTICA)En estadística, la moda es el valor con una mayor frecuencia en una distribuciónde datos.Hablaremos de una distribución bimodal de los datos adquiridos en una columnacuando encontremos dos modas, es decir, dos datos que tengan la mismafrecuencia absoluta máxima. Una distribución trimodal de los datos es en la queencontramos tres modas. Si todas las variables tienen la misma frecuenciadiremos que no hay moda.El intervalo modal es el de mayor frecuencia absoluta. Cuando tratamos con datosagrupados antes de definir la moda, se ha de definir el intervalo modal.La moda, cuando los datos están agrupados, es un punto que divide al intervalomodal en dos partes de la forma p y c-p, siendo c la amplitud del intervalo, queverifiquen que:
    • Siendo la frecuencia absoluta del intervalo modal las frecuencias absolutas de losintervalos anterior y posterior, respectivamente, al intervalo modal.Moda de datos agrupadosPara obtener la moda en datos agrupados se usa la siguiente fórmula:Donde: = L-inferior de la clase modal. = es el delta de frecuencia absoluta modal y la frecuencia absoluta premodal. = es el delta de frecuencia absoluta modal y la frecuencia absoluta postmodal.i = intervalo.Encontrar la estatura modal de un grupo que se encuentra distribuido de lasiguiente forma:Entre 1 y 1.10 hay 1 estudianteEntre 1.10 y 1.15 hay 1 estudiantesEntre 1.20 y 1.25 hay 2 estudiantesEntre 1.30 y 1.35 hay 2 estudiantes.Entre 1.45 y 1.55 hay 3 estudiantes.Entre 1.50 y 1.60 hay 4 estudiantes.Entre 1.60 y 1.70 hay 10 estudiantes.
    • Entre 1.70 y 1.80 hay 8 estudiantes.Entre 1.80 y 1.90 hay 2 estudiantes.Clase modal = 1.60 y 1.70 (es la que tiene frecuencia absoluta más alta, 10)Li-1 = 1.60 D1 = 6 D2 = 2 i = 0.10Moda = 1.60 + (6/8) * 0.1 = 1.675 DESVIACIÓN ESTÁNDARLa desviación estándar o desviación típica (denotada con el símbolo σ) es unamedida de centralización o dispersión para variables de razón (ratio o cociente) yde intervalo, de gran utilidad en la estadística descriptiva.Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviacióntípica es una medida (cuadrática) que informa de la media de distancias quetienen los datos respecto de su media aritmética, expresada en las mismasunidades que la variable.Para conocer con detalle un conjunto de datos, no basta con conocer las medidasde tendencia central, sino que necesitamos conocer también la desviación quepresentan los datos en su distribución respecto de la media aritmética de dichadistribución, con objeto de tener una visión de los mismos más acorde con larealidad al momento de describirlos e interpretarlos para la toma de decisiones VARIANZAEn teoría de probabilidad, la varianza (que suele representarse como ) de unavariable aleatoria es una medida de dispersión definida como la esperanza delcuadrado de la desviación de dicha variable respecto a su media.
    • Está medida en unidades distintas de las de la variable. Por ejemplo, si la variablemide una distancia en metros, la varianza se expresa en metros al cuadrado. Ladesviación estándar, es la raíz cuadrada de la varianza, es una medida dedispersión alternativa expresada en las mismas unidades de los datos de lavariable objeto de estudio. La varianza tiene como valor mínimo 0.Hay que tener en cuenta que la varianza puede verse muy influida por los valoresatípicos y no se aconseja su uso cuando las distribuciones de las variablesaleatorias tienen colas pesadas. En tales casos se recomienda el uso de otrasmedidas de dispersión más robustas.El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 tituladoThe Correlation Between Relatives on the Supposition of Mendelian Inheritance.Dada una variable aleatoria X con media μ = E(X), se define su varianza, Var(X)(también representada como o, simplemente σ2), comoDesarrollando la definición anterior, se obtiene la siguiente definición alternativa (yequivalente):Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampocotiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecende varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 <k≤ 2.Si la variable aleatoria X es continua con función de densidadf(x), entonces
    • Dondey las integrales están definidas sobre el rango de X.Si la variable aleatoria X es discreta con pesos x1↦p1, ..., xn↦pn, entoncesDonde CURTOSISEn teoría de la probabilidad y estadística, la curtosis es una medida de la forma oapuntamiento de las distribuciones. Así las medidas de curtosis (también llamadasde apuntamiento o de concentración central) tratan de estudiar la mayor o menorconcentración de frecuencias alrededor de la media y en la zona central de ladistribución.Definición de curtosis. El coeficiente de apuntamiento de uso más extendido es elbasado en el cuarto momento con respecto a la media y se define como:
    • donde es el 4º momento centrado o con respecto a la media y es la desviaciónestándar.En ocasiones se emplea esta otra definición del coeficiente de curtosis:donde al final se ha sustraído 3 (que es la curtosis de la Normal) con objeto degenerar un coeficiente que valga 0 para la Normal y tome a ésta como referenciade apuntamiento:Tomando, pues, la distribución normal como referencia, una distribución puedeser: más apuntada que la normal –leptocúrtica. menos apuntada que la normal- platicúrtica. la distribución normal es mesocúrtica.En la distribución normal se verifica que , donde es el momento deorden 4 respecto a la media y la desviación típica.Así tendremos que: Si la distribución es leptocúrtica y Si la distribución es platicúrtica y Si la distribución es mesocúrtica yOtra forma de medir la curtosis se obtiene examinando la fórmula de la curtosis dela suma de variables aleatorias. Si Y es la suma de n variables aleatoriasestadísticamente independientes, todas con igual distribución X, entonces
    • , complicándose la fórmula si la curtosis se hubiesedefinido como . ASIMETRIALas medidas de asimetría son indicadores que permiten establecer el grado desimetría (o asimetría) que presenta una distribución de probabilidad de unavariable aleatoria sin tener que hacer su representación gráfica.Como eje de simetría consideramos una recta paralela al eje de ordenadas quepasa por la media de la distribución. Si una distribución es simétrica, existe elmismo número de valores a la derecha que a la izquierda de la media, por tanto, elmismo número de desviaciones con signo positivo que con signo negativo.Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de lamedia es más larga que la de la izquierda, es decir, si hay valores más separadosde la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) sila "cola" a la izquierda de la media es más larga que la de la derecha, es decir, sihay valores más separados de la media a la izquierda.COEFICIENTE DE ASIMETRÍA de FisherEn teoría de la probabilidad y estadística, la medida de asimetría más utilizadaparte del uso del tercer momento estándar. La razón de esto es que nos interesamantener el signo de las desviaciones con respecto a la media, para obtener sison mayores las que ocurren a la derecha de la media que las de la izquierda. Sinembargo, no es buena idea tomar el momento estándar con respecto a la mediade orden 1. Debido a que una simple suma de todas las desviaciones siempre escero. En efecto, si por ejemplo, los datos están agrupados en clases, se tieneque:
    • en donde representa la marca de la clase -ésima y denota la frecuenciarelativa de dicha clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.El COEFICIENTE DE ASIMETRÍA de Fisher, representado por , se define como:Donde es el tercer momento en torno a la media y es la desviación estándar.Si , la distribución es asimétrica positiva o a la derecha.Si , la distribución es asimétrica negativa o a la izquierda.Si la distribución es simétrica, entonces sabemos que . El recíproco no escierto: es un error común asegurar que si entonces la distribución essimétrica (lo cual es falso).COEFICIENTE DE ASIMETRÍA de PearsonSólo se puede utilizar en distribuciones uniformes, unimodales y moderadamenteasimétricas. Se basa en que en distribuciones simétricas la media de ladistribución es igual a la moda.Si la distribución es simétrica, y . Si la distribución esasimétrica positiva la media se sitúa por encima de la moda y, por tanto .
    • COEFICIENTE DE ASIMETRÍA de BowleyEstá basado en la posición de los cuartiles y la mediana, y utiliza la siguienteexpresión:En una distribución simétrica el tercer cuartil estará a la misma distancia de lamediana que el primer cuartil. Por tanto .Si la distribución es positiva o a la derecha .La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumenuna distribución normal, esto es, simétrica en torno a la media. La distribuciónnormal tiene una asimetría cero. Pero en realidad, los valores no son nuncaperfectamente simétricos y la asimetría de la distribución proporciona una ideasobre si las desviaciones de la media son positivas o negativas. Una asimetríapositiva implica que hay más valores distintos a la derecha de la media.Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, juntocon las medidas de apuntamiento o curtosis se utilizan para contrastar si se puedeaceptar que una distribución estadística sigue la distribución normal. Esto esnecesario para realizar numerosos contrastes estadísticos en la teoría deinferencia estadística. RANGO (ESTADÍSTICA)En estadística descriptiva se denomina rango estadístico (R) o recorridoestadístico al intervalo de menor tamaño que contiene a los datos; es igual a ladiferencia entre el valor máximo y el valor mínimo; por ello, comparte unidades conlos datos. Permite obtener una idea de la dispersión de los datos, cuanto mayor esel rango, más dispersos están los datos de un conjunto.
    • Por ejemplo, para una serie de datos de carácter cuantitativo, como lo es laestatura medida en centímetros, tendríamos:es posible ordenar los datos como sigue:donde la notación x(i) indica que se trata del elemento i-ésimo de la serie de datos.De este modo, el rango sería la diferencia entre el valor máximo (k) y el mínimo; o,lo que es lo mismo:En nuestro ejemplo, con cinco valores, nos da que R = 185-155 = 30. VALORES MÁXIMOS Y MÍNIMOSSin duda alguna una de las mayores aplicaciones del cálculo diferencial es laoptimización, en los cuales se nos pide la manera óptima de hacer algo. Todosestos problemas de optimización se reducen a encontrar valores máximos ymínimos de funciones.Una función “f” tiene un máximo absoluto en C siF(c) >= F(x) para toda x en D, donde D es el dominio de f. El número F(c) se llamavalor máximo de f en D. De manera análoga una función “f” tiene un mínimoabsoluto en C siF(c) =< F(x) para toda x en D, donde D es el dominio de f. El numero F(c) se llamavalor mínimo de f en D. Estos valores se conocen como valores extremos.
    • Una función “f” tiene un máximo local en C siF(c) >= F(x) cuando x esta cercano a C.Pero no todas las funciones tienen valores extremos, por eso estudiamos elteorema del valor extremo que dice que si “f” es continua sobre un intervalocerrado [a, b] entonces f alcanza un valor máximo absoluto f(c) y un valor mínimoabsoluto f(d) en algunos números c y d en [a, b].Este teorema nos indica si existe o no un valor extremo pero no nos dice comoencontrarlo, para este propósito estudiamos el teorema de Fermat que dice que si“f” tiene un máximo o mínimo local en C y si F(c) existe, entoncesf(c) = 0. Este teorema sugiere que empecemos a buscar los valores mínimos yextremos de “f” en los números que hace la función 0 o indefinida. Estos númerostienen un nombre especial: Los números críticos de una función “f” es un numero cen el dominio de “f” tal que f(c) = 0 o f(c) no existe. Por ende si “f” tiene unextremo local en C, entonces C es un número critico de “f”.En síntesis para hallar los valores máximos y mínimos de una Función “f” se debeseguir este procedimiento (absolutos de un intervalo [a, b]):Método del intervalo cerrado:Encuentre los valores de “f” en los números críticos de “f” en (a, b). Halle losvalores de “f” en los puntos extremos del intervalo. El mas grande de los valoresde los pasos 1 y 2 es el valor máximo absoluto; el mas pequeño, el valor mínimoabsoluto
    • SUMALa suma o adición es la operación básica por su naturalidad, que se representacon el signo (+), que se combina con facilidad matemática de composición queconsiste en combinar o añadir dos números o más para obtener una cantidad finalo total. La suma también ilustra el proceso de juntar dos colecciones de objetoscon el fin de obtener una sola colección. Por otro lado, la acción repetitiva desumar uno es la forma más básica de contar.En términos más formales, la suma es una operación aritmética definida sobreconjuntos de números (naturales, enteros, racionales, reales y complejos), ytambién sobre estructuras asociadas a ellos, como espacios vectoriales convectores cuyas componentes sean estos números o funciones que tengan suimagen en ellos.En el álgebra moderna se utiliza el nombre suma y su símbolo "+" pararepresentar la operación formal de un anillo que dota al anillo de estructura degrupo abeliano, o la operación de un módulo que dota al módulo de estructura degrupo abeliano. También se utiliza a veces en teoría de grupos para representar laoperación que dota a un conjunto de estructura de grupo. En estos casos se tratade una denominación puramente simbólica, sin que necesariamente coincida estaoperación con la suma habitual en números, funciones, vectores, etc.Propiedades de la suma Propiedad conmutativa: Si se altera el orden de los sumandos, no cambia el resultado: a + b=g+3. Propiedad asociativa: Propiedad que establece que cuando se suman tres o más números reales, la suma siempre es la misma independientemente de su agrupamiento.2 Un ejemplo es: a+ (b-c) = (a x b)-c. Elemento neutro: 0. Para cualquier número a, a + 0 = 0 + a = a.
    • Elemento opuesto o inverso aditivo: Para cualquier número entero, racional, real o complejo a, existe un número −a tal que a + (−a) = (−a) + a = 0. Este número −a se denomina elemento opuesto, y es único para cada a. No existe en algunos conjuntos, como el de los números naturales. Propiedad distributiva: La suma de dos números multiplicada por un tercer número es igual a la suma del producto de cada sumando multiplicado por el tercer número. Por ejemplo, (6+3) * 4 = 6*4 + 3*4. Propiedad de cerradura: Cuando se suman números naturales el resultado es siempre un número natural. Por ejemplo a + b=c.Estas propiedades pueden no cumplirse en casos del límite de sumas parcialescuando tienden al infinito. CUENTAOperación o conjunto de operaciones matemáticas necesarias para averiguar unresultado.