Probabilidad
Upcoming SlideShare
Loading in...5
×
 

Probabilidad

on

  • 10,344 views

 

Statistics

Views

Total Views
10,344
Views on SlideShare
10,343
Embed Views
1

Actions

Likes
0
Downloads
197
Comments
1

1 Embed 1

http://variablesaleatoriasequipo5.blogspot.com 1

Accessibility

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
  • se agradece
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Probabilidad Probabilidad Document Transcript

  • FUNDAMENTOS DE PROBABILIDAD
  • PROBABILIDAD Establecer claramente el espacio de probabilidad será el primer paso imprescindible para estudiar cualquier experimento aleatorio. En la práctica, muchas de las dificultades que surgen en el análisis estadístico de investigaciones clínicas tienen que ver con el establecimiento implícito y defectuoso de este espacio. EXPERIMENTO ALEATORIO: experimento que puede ser repetido bajo "las mismas condiciones", del que puede establecerse el conjunto de sus posibles resultados, pero no predecir un resultado concreto. SUCESO ELEMENTAL: todo resultado que puede ocurrir al realizar una sola vez el experimento. ESPACIO MUESTRAL: conjunto de todos los sucesos elementales de un experimento: Ω. SUCESO: cualquier subconjunto del espacio muestral, incluidos Ω (seguro) y ∅ (imposible). EJEMPLOS Lanzar una moneda al aire: Ω={1,2,3,4,5,6}. Grupo sanguíneo de un individuo Ω={A, B, AB, 0}. Nº de niños que nacen en una maternidad un día concreto. Ω={0,1,2,…}. Una mujer portadora de hemofilia tiene 3 hijos ¿Cuál es el espacio muestral apropiado para estudiar la posible transmisión de hemofilia a sus hijos? Cada hijo puede padecer hemofilia (s) o no (n), por tanto Ω={sss, ssn, sns, nss, snn, nsn, nns, nnn} En este espacio muestral, el suceso "dos hijos padecen hemofilia" se representa como A1={ssn, sns, nss} y el suceso "los dos primeros no la padecen" como A2={nns, nnn} .
  • OPERACIONES CON SUCESOS INTERSECCIÓN: sean A y B dos sucesos cualesquiera de un experimento, la intersección es A ∩ B son todas las posibilidades comunes a A y B. A ∩ B es otro suceso. B A A∩B Incompatibilidad : Dos sucesos A y B son incompatibles si A ∩ B = ∅. UNIÓN: La unión de dos sucesos A y B es otro suceso que contiene todas las posibilidades de A y de B: A U B. A∪B A∪ B = Ω A B SISTEMA COMPLETO DE SUCESOS (PARTICIÓN) Un conjunto de sucesos { A1 , A2 ,...., Ak } forma un sistema completo si verifica: 1. Ai ∩ A j = ∅ ∀i ≠ j (incompatibles dos a dos). k 2. A1 ∪ A2 ∪ ..... ∪ Ak = ∪ Ai =Ω i =1 A1 A3 A5 A2 A4 A6 Ejemplo: El conjunto de sucesos elementales siempre conforma un sistema completo.
  • DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD Se define la probabilidad como una función: P : A → [ 0,1] A → P ( A) que verifica: 1.- 0 ≤ p ( A) ≤ 1 para todo suceso A. 2.- P (Ω) = 1 . 3.- Dados dos sucesos A, B / A ∩ B = o (sucesos incompatibles) se tiene / que: P( A ∪ B) = P( A) + P( B) . A la estructura ( Ω, A, P ) se le denomina espacio de probabilidad. CONSECUENCIAS 1.- Si A ⊆ B entonces p ( A ) ≤ p ( B ) . 2.- P ( A) = 1 − p ( A ) , siendo A el complementario de A . A A 3. - Si { A1 , A2 ,...., Ak } es conjunto de sucesos verificando Ai ∩ A j = ∅ ∀i ≠ j , k p ( A1 ∪ A2 ∪ ..... ∪ Ak ) = ∑ p ( Ai ) i =1 4.- Dados dos sucesos A, B cualesquiera: P( A ∪ B ) = P( A) + P( B ) − p( A ∩ B ) .
  • Ejemplo Un 15% de los pacientes atendidos en un hospital son hipertensos, un 10% son obesos y un 3% son hipertensos y obesos. ¿Qué probabilidad hay de que elegido un paciente al azar sea obeso o hipertenso? A = {obeso} , B = {hipertenso} B A El conjunto de sucesos elementales es { A ∩ B, A ∩ B, A ∩ B , A ∩ B } y forman un sistema completo. A ∩ B = {hipertenso y obeso} A ∪ B = {obeso o hipertenso} p(A) = 0.10; p(B) = 0.15 p( A ∩ B ) = 0.03 Como podemos observar, los sucesos “ser hipertenso” y “ser obeso”, son sucesos compatibles ( A ∩ B ≠ ∅ ) p( A ∪ B ) = 0.10 + 0.15 – 0.03 = 0.22 p( A )=1-0.10=0.90 p( B )=1-0.15=0.85 p( A ∩ B )=p( A )-p( A ∩ B )=0.10-0.03=0.07 p( A ∩ B )=p( B )-p( A ∩ B )=0.15-0.03=0.12 p( A ∩ B )=1- p( A ∪ B )=1-0.22=0.78
  • PREVALENCIA E INCIDENCIA DE UNA ENFERMEDAD nº individuos con enfermedad prevalencia = nº total individuos n º nuevos casos de enfermedad durante (t 0 , t1 ) incidencia = n º individuos sanos en t 0 EJEMPLOS 1.- En 1974 se contabilizaron 22626 hipertensos entre 144380 individuos con edades ≥ 17 años. ¿Cuál era la prevalencia de la hipertensión en 1974? n º hipertensos 22626 prevalencia = = = 0.157 nº individuos ≥ 17 años 144380 Por tanto la prevalencia de la hipertensión en 1974 era del 15.7 %. 2.- El 01/01/1970 se inició un estudio de cáncer de mama. Se registraron 1000 mujeres sanas. Entre éstas se contabilizó un caso de cáncer de mama hasta el 31/12/1970. ¿Incidencia? nº nuevos casos (01 / 01 / 1970,31 / 12 / 1970) 1 incidencia = = = 0.001 mujeres sanas al 01 / 01 / 1970 1000 Luego la incidencia del cáncer de mama a 01/01/1970 era del 1 o oo .
  • PROBABILIDAD CONDICIONADA En ocasiones la probabilidad de un suceso viene condicionada por la ocurrencia de otro(s) suceso(s). El proceso de realizar la historia clínica, explorar y realizar pruebas complementarias ilustra este principio. La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se denomina probabilidad condicionada y se define p ( A∩ B) p ( A/ B) = p (B) Por ejemplo: La probabilidad de cáncer de pulmón es de 0.001, en cierta población. Sin embargo, si sabemos que el individuo es “fumador” la probabilidad de cáncer de pulmón aumenta a 0.02. Se escribiría así: P(cáncer de pulmón)=0.001 P(cáncer de pulmón / fumador) =0.02 Dos sucesos A y B, son INDEPENDIENTES si la probabilidad de ocurrencia de cada uno no viene afectada por la ocurrencia del otro: p ( A / B ) = p ( A) ; p ( B / A) = p ( B ) ó bien p( A ∩ B ) = p ( A) p ( B ) Por el contrario, son DEPENDIENTES si p ( A / B ) ≠ p ( A) ; p ( B / A) ≠ p ( B ) ó bien p( A ∩ B ) ≠ p ( A) p ( B ) En el ejemplo anterior, el cáncer de pulmón depende de si el individuo es fumador. Dicho en otras palabras, ser fumador va a suponer un “factor de riesgo” para el cáncer de pulmón respecto a la población general.
  • EJEMPLO 1. Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la probabilidad de que su próximo hijo tenga la enfermedad? 2. Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad ¿son independientes? Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma probabilidad. El espacio muestral es {xX, xY, XX, XY} El suceso A={hijo enfermo} corresponde al genotipo xY, por tanto, p(A) = 1/4 = 0.25. 1. La mujer tiene el hijo varón. Se define el suceso B = {ser varón} = {xY, XY} La probabilidad pedida es p(A|B) p(B) = 0.5; A ∩ B = {xY}; p(A ∩B) = 0.25 Entonces: p(A|B) = 0.25/0.5 = 0.5 2. p(A) = 0.25; p(B) = 0.5 ; p(A) p(B)= 0.125 p(A ∩ B) = 0.25 ≠ p(A) p(B) , por lo que A y B son DEPENDIENTES.
  • MEDIDAS DE EFECTO: RIESGO RELATIVO (RR) , ODDS-RATIO (OR) Si F es un factor de exposición para una cierta enfermedad, es necesario construir alguna “medida de efecto” de F sobre la enfermedad. RIESGO RELATIVO (RR) >1 F es factor de riesgo P(enfermedad / F ) RR = =1 no asociación P(enfermedad / no F ) <1 F es factor protector • Es una tasa de incidencias. • Sólo es aplicable en estudios prospectivos (cohorte). ODDS-RATIO (OR) P( F / enfermedad ) P(no F / enfermedad ) P( F / enfermedad ) P(no F / sanos) OR = = P( F / sanos ) P( F / sanos ) P (no F / enfermedad ) P(no F / sanos ) • La OR tiene una interpretación análoga al RR (<1 F protector, =1 no asociación, >1 F factor de riesgo). • Se puede calcular en cualquier tipo de estudio (cohorte, casos-control, sección cruzada). • La OR se aproxima a la RR, en enfermedades de incidencia baja (p(enfermedad)<0.1).
  • ESTIMACIÓN DE LA OR En la práctica no se conocen las medidas de efecto (como la OR) y habrá que estimarlas a través de muestras. En un estudio caso-control, se extrae una muestra de enfermos (casos), y una muestra de sanos (controles): CASOS CONTROLES (Enfermos) (Sanos) Presente a b a+b Exposición Ausente c d c+d nE = a+c nS = b+d n=a+b+c+d • Según la definición de OR, una estimación de esta medida de efecto viene dada por la razón de productos cruzados (cross-product ratio) : ad OR = bc • Para medir el error de esta estimación puntual, es conveniente construir un Intervalo de Confianza (IC) al 95% para la verdadera OR. • Interpretación del IC95% de la OR: Si el valor 1 “no cae” en el IC de la OR, existe asociación significativa.
  • EJEMPLO (infec.sav) Queremos estudiar la ASOCIACIÓN entre la infección post-quirúrgica y la diabetes: IPO=Infección post-quirúrgica ( SI, NO) DIABETES (SI, NO). IPO NO SI 45 97 142 (31.7%) (68.3%) (100%) Diabetes NO 419 1792 2211 (19.0%) (81.0%) (100%) 464 1889 2553 OR=1.984, IC95% (1.372, 2.870) Estos resultados se pueden interpretar de dos formas equivalentes: A) Tomando como REFERENCIA la categoría “NO” en DIABETES: • La presencia de diabetes (es decir, la categoría “SI”) está 1.984 veces asociada a la infección post-quirúrgica. • Dicha asociación es significativa (IC95%=(1.372 , 2.870)). La diabetes es un factor de “riesgo” significativo. B) Tomando como REFERENCIA la categoría “SI” en DIABETES: • La ausencia de diabetes (es decir, la categoría “NO”) está 0.504 (= 1/1.984) veces asociada a la infección post-quirúrgica. • Dicha asociación es significativa (IC95%=(1/1.372 , 1/2.870)=(0.348 , 0.729) ). No tener diabetes es un factor “protector” significativo.
  • Resolviéndolo en el SPSS… Analizar… → Estadísticos descriptivos… → Tablas de contingencia… Filas …. diabetes (1=si; 0=no) Columnas …. infec1 (1=si; 0=no). → Estadísticos……Riesgo (es decir, OR) → Casillas…. Porcentajes por filas (es decir, por diabetes) % por filas (diabetes) Riesgo = OR Estimación de riesgo Intervalo de confianza al 95% Valor Inferior Superior Razón de las ventajas 1.984 1.372 2.870 para DIABETES (si / no) Para la cohorte INFEC1 1.672 1.294 2.161 = si Para la cohorte INFEC1 .843 .752 .944 = no N de casos válidos 2353
  • TEOREMA DE BAYES Diagnóstico médico: El diagnóstico consiste en establecer la enfermedad de un paciente, a partir de una serie de síntomas. Pruebas diagnósticas, pruebas de paternidad….. Enunciado Sea conjunto de sucesos { A1 , A2 ,...., Ak } que forma un sistema completo B (partición), de Sea B un suceso de interés. A1 A3 A5 A2 A4 A6 Supongamos que conocemos las siguientes probabilidades: k a) p ( A1 ) , p ( A2 ) ,....., p ( Ak ) . Se tiene además que ∑ p ( A ) = 1 . i i =1 b) p ( B / A1 ) , p ( B / A2 ) ,....., p ( B / Ak ) . Entonces se pueden calcular las siguientes probabilidades (∀i = 1,.., k ) : p ( Ai ) p ( B / Ai ) p ( Ai ) p ( B / Ai ) p ( Ai / B ) = = p ( A1 ) p ( B / A1 ) + ..... + p ( Ai ) p ( B / Ai ) + ... + p ( Ak ) p ( B / Ak ) k ∑ p ( A ) p (B / A ) j =1 j j Es decir: a partir de las probabilidades “a priori”, p ( Ai ) , podremos calcular las probabilidades a posteriori, p ( Ai / B ) .
  • Ejemplo Un individuo puede presentar cualquiera de dos enfermedades E1 ó E2 (o estar sano, S) según una serie de síntomas B que presenta. Se sabe que en la población de partida la distribución de las enfermedades es 0.2 y 0.3 respectivamente. Por otro lado, se sabe también que la probabilidad de presentar B si tuviese E1 es 0.5, si tuviese E2 es de 0.3, y si estuviese sano es de 0.1. ¿Cuál es la situación más probable para dicho individuo? p( E1 ) = 0.2 , p( E2 ) = 0.3 , p( S ) = 0.5 p( B / E1 ) = 0.5 , p( B / E2 ) = 0.3 , p( B / S ) = 0.1 p ( E1 ) p( B / E1 ) 0.1 p( E1 / B ) = = = 0.42 p ( E1 ) p( B / E1 ) + p ( E2 ) p( B / E2 ) + p ( S ) p( B / S ) 0.24 p ( E2 ) p ( B / E2 ) 0.09 p ( E2 / B ) = = = 0.38 p ( E1 ) p ( B / E1 ) + p ( E2 ) p ( B / E2 ) + p ( S ) p ( B / S ) 0.24 p ( S / B ) = 1 − p ( E1 / B ) − p ( E2 / B ) = 1 − 0.42 − 0.38 = 0.2 Lo más probable es que padezca la enfermedad E1.
  • Pruebas diagnósticas En la práctica, antes de que un Laboratorio ó un Servicio de Salud puedan recomendar una prueba diagnóstica de una enfermedad, se ha de evaluar la capacidad de la prueba para discriminar a los sanos de los enfermos. Se plantea entonces un diseño experimental que consiste en considerar una población general en dos sub-poblaciones independientes: • Enfermos ( E ): indiv. diagnosticados verdaderamente (gold standard). • Sanos ( E ): indiv. sanos a dicha enfermedad. Aplicada la prueba a un individuo cualquiera, ésta puede dar como resultado: • Positivo ( + ): La prueba indica presencia de la enfermedad. • Negativo ( − ): La prueba indica ausencia de la enfermedad. Aplicamos la prueba a las dos poblaciones ( E , E ) , y ésta puede acertar ó no: probabilidades de acierto • Sensibilidad (True Positive Fraction, TPF): p (+ E ) . • Especificidad (True Negative Fraction, TNF): p (− E ) . probabilidades de fallo • Falso positivo : p ( + E ) = 1-especificidad . • Falso Negativo : p ( − E ) = 1-sensibilidad . Prueba + - Gold E Acierto Fallo standard E Fallo Acierto
  • Cuando la prueba se usa con fines diagnósticos (o de "screening") interesa calcular alguna de las siguientes probabilidades: • Valor Predictivo Positivo: p ( E + ) . • Valor Predictivo Positivo: p E − . ( ) Conociendo la prevalencia de la enfermedad en la población general, p ( E ) , por la Regla Bayes, podemos calcular ambos valores predictivos: lid a d + ibi ns se E Fa lso p(E) ne − ga tiv o Población o sit ivo + op 1− p (E) F als E Es pe cif ici da d − p ( E ) p( + / E ) p( E / + ) = p ( E ) p( + / E ) + (1 − p ( E ) ) p( + / E ) p ( E ) p( − / E ) p( E / −) = p ( E ) p( − / E ) + (1 − p ( E ) ) p( − / E ) Nótese que ambas dependen de la prevalencia de la enfermedad: una prueba diagnóstica que funciona muy bien en el CHUS, puede ser inútil en el Hospital Ramón y Cajal.
  • Ejemplo Un test diagnóstico diseñado para diagnosticar cáncer de cuello uterino, tiene un coeficiente falso positivo y falso negativo de 0.05 y 0.01, respectivamente. En una cierta población de mujeres, el 4% de ellas sufren este tipo de cáncer. 1. Si una mujer de dicha población ha reaccionado positivamente al test, ¿qué posibilidades hay de que padezca cáncer de cuello uterino? 2. Si otra mujer de la misma población ha reaccionado negativamente al test, ¿qué posibilidades hay de que esté sana? + 5 0.9 E 0.04 0.0 5 − Población 1 + 0.96 0.0 E 0.9 9 − 0.04 × 0.95 0.038 1. p( E / + ) = = = 0.798 0.04 × 0.95 + 0.96 × 0.01 0.0476 0.96 × 0.99 0.950 2. p( E / −) = = = 0.998 0.04 × 0.05 + 0.96 × 0.99 0.952
  • VARIABLES ALEATORIAS 1. VARIABLE ALEATORIA DISCRETA: FUNCIÓN DE MASA DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ESPERANZA MATEMÁTICA VARIANZA. DESVIACIÓN TÍPICA 2. PRINCIPALES DISTRIBUCIONES DISCRETAS 3. VARIABLE ALEATORIA CONTINUA: FUNCIÓN DE DENSIDAD FUNCIÓN DE DISTRIBUCIÓN ESPERANZA MATEMÁTICA VARIANZA. DESVIACIÓN TÍPICA 4. PRINCIPALES DISTRIBUCIONES CONTÍNUAS
  • • En ciertos fenómenos aleatorios el resultado es un número, o se le puede asociar un número: 1. Tomar un individuo al azar y medir su altura. 2. Tomar una familia al azar y contar el número de hijos. 3. El resultado de administrar un tratamiento a un enfermo: se cura o no se cura. 4. Cuantificar el tiempo de vida de un paciente de cáncer,….. • Toda función o regla que asigna un número a cada suceso de un experimento aleatorio será una variable aleatoria. • En concreto nos interesaremos por ciertos parámetros de esas variables aleatorias que resuman su información: esperanza (media), varianza, desviación típica... DEFINICIÓN X es una VARIABLE ALEATORIA si es función del conjunto de sucesos A de un fenómeno aleatorio en : X: A → A → X ( A) Diremos que se ha definido una variable aleatoria, o que se ha construido un modelo de distribución de probabilidad, cuando se especifican los posibles valores de la variable aleatoria con sus respectivas probabilidades.
  • TIPOS DE VARIABLES ALEATORIAS Según los valores que pueda tomar la v.a. distinguiremos entre dos tipos: V. A. DISCRETA: Toma valores discretos (enteros aislados). Se asocian a procesos de conteo. • Nº de hijos de una familia. • Nº de episodios de otitis media en niños hasta 2 años. • Lanzar un dado y observar el resultado. • Administrar un tratamiento a un enfermo y observar si mejora o no. • Número de colonias bacterianas/cm2 • Nº de nuevos casos de VIH/SIDA en un año… V. A. CONTÍNUA: Puede tomar infinitos valores reales. • Altura de un individuo. • Peso de un individuo. • Nivel de glucosa. • Tiempo de vida de un paciente de cáncer. • Tensión sistólica/diastólica de un individuo…..
  • Variables aleatorias en SPSS Podemos: 1. Generar números aleatorios. 2. Calcular probabilidades y distribuciones. para variables aleatorias discretas y contínuas.
  • Variables aleatorias en SPlus y R
  • Variables aleatorias en SPlus y R (cont.)
  • VARIABLES ALEATORIAS DISCRETAS Función de Masa de Probabilidad Dada una variable aleatoria discreta X que toma valores { x1 , x2 ,..., xk } definimos la función de masa de probabilidad de X como: p: → [0,1] xi → p( xi ) = P( X = xi ) = pi verificando: 1. 0 ≤ p ( xi ) ≤ 1 ∀xi k 2. ∑p i =1 i =1. Ejemplo: El experimento consiste en lanzar un dado y ver qué sale. Definimos la variable aleatoria X = resultado del lanzamiento. Conjunto de posibles sucesos elementales: {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} La variable aleatoria es: X: A → {sale 1} → 1 ... {sale 6} → 6 Las probabilidades para los sucesos elementales (sistema de probabilidades): 1 P (sale 1) = P ( X = 1) = ⇒ Diagrama de Probabilidades. 6 Lanzamiento de un dado. ⇒ p (1) = 1/ 6 1,00 0,80 ..... Probabilidad 0,60 0,40 1 P (sale 6) = P ( X = 6) = ⇒ 0,20 6 ⇒ p (6) = 1/ 6 0,00 1 2 3 4 5 6
  • FUNCIÓN DE DISTRIBUCIÓN Dada una variable aleatoria X su función de distribución será una función: F: → [ 0,1] x → F ( x) = P( X ≤ x) que debe verificar las siguientes condiciones: 1.- F (−∞) = 0 2.- F ( +∞) = 1 3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 ) Para variables aleatorias discretas podemos definir la función de distribución de forma concreta como: F ( x) = P ( X ≤ x) = ∑ P ( X = xi ) ∀x ∈ xi ≤ x Ejemplo: Función de Distribución. Lanzamiento de un dado. 1,00 0,80 0,60 0,40 0,20 0,00 0 1 2 3 4 5 6 7 1 F (1) = P ( X ≤ 1) = 6 2 F (2) = P( X ≤ 2) = P( X = 1) + P( X = 2) = 6 5 F (5) = P ( X ≤ 5) = P ( X = 1) + P ( X = 2) + P ( X = 3) + P( X = 4) + P( X = 5) = 6
  • PARÁMETROS DE UNA V.A. DISCRETA Dada una variable aleatoria discreta X, que toma valores { x1 , x2 ,..., xk } , con función de masa de probabilidad p [p(xi)=pi], podemos calcular sus parámetros como ESPERANZA: E [ X ] Representa el valor esperado (promedio) de la variable aleatoria X en la población. k E [ X ] = ∑ pi xi = µ i =1 VARIANZA: V [ X ] k V [ X ] = ∑ pi ( xi − µ ) = σ 2 2 i =1 k V [ X ] = ∑ pi xi2 − µ 2 = E  X 2  − E [ X ] 2   i =1 DESVIACIÓN TÍPICA: DT [ X ] DT [ X ] = σ 2 = σ
  • VARIABLES DISCRETAS NOTABLES 1. Proceso de Bernoulli: Bernoulli Binomial Geométrica Binomial Negativa 2. Proceso de Poisson: Poisson 3. Otras distribuciones: Hipergeométrica
  • 1. Sucesión de Bernoulli y sus distribuciones asociadas La realización de algunos experimentos genera uno de dos posibles resultados: • Un individuo puede estar enfermo ó no. • Una persona puede ser mujer ó varón. • Un aparato de laboratorio puede estar defectuoso ó no,…. Llamamos Proceso de Bernoulli al experimento en que se observan individuos de una población con las siguientes características: • Cada individuo se clasifica en una de dos posibles categorías, que corresponden a la ocurrencia o no de un cierto suceso de interés, A. Llamaremos Éxito a la ocurrencia de A y Fracaso a la no ocurrencia de A ( A ). • La probabilidad de éxito es constante en toda la población y no depende del número de elementos de ésta. Representaremos por p la probabilidad de éxito y por (1-p) la probabilidad de fracaso. • Las observaciones son independientes. Es decir la probabilidad de éxito es siempre la misma y no se modifica dependiendo del número de individuos observados. En este proceso podemos definir distintas variables aleatorias que generan distintas distribuciones de probabilidad: Distribución de Bernoulli Distribución Binomial Distribución Geométrica (o de Pascal) Distribución Binomial Negativa
  • Distribución de Bernoulli Realizamos un experimento con dos posibles resultados ( A, A ). Decimos que X es una v.a. Bernoulli si toma los valores: 0 si ocurre A X = 1 si ocurre A Su sistema de probabilidades es: p ( X = r ) = p r (1 − p ) 1− r , r = 0,1 E(X ) = p , V ( X ) = p (1 − p ) , DT ( X ) = p (1 − p ) Distribución Binomial Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces. Una v.a. Binomial B ( n, p ) viene definida por: X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n} n p ( X = r ) =   p r (1 − p ) 1− r , r = 0,1,..., n r E ( X ) = np , V ( X ) = np (1 − p ) , DT ( X ) = np (1 − p ) Ejemplos: X = Nº de varones en familias de 4 hijos (suponer p=0.49). X = Nº de neutrófilos en 10 células (suponer p=0.6 ). Notas: Una Bernoulli es una B (1, p ) . n Si X es B ( n, p ) entonces X = ∑Xi =1 i , donde X i son Bernoulli.
  • Distribución Geométrica (Pascal) Realizamos un experimento en las mismas condiciones de la v.a. binomial. Una v.a. Geométrica viene definida por: X = nº de veces que sale fracaso ( A ) asta obtener el primer éxito. p ( X = r ) = p (1 − p ) r , r = 0,1, 2,..... 1− p 1− p E(X ) = , V (X ) = p p2 A diferencia de la binomial, la geométrica puede tomar infinitos valores. Ejemplo: X=nº de recién nacidos en un Hospital hasta que nazca la primera mujer. Distribución Binomial Negativa Se utiliza en estudios de fiabilidad, En Ecología: análisis de poblaciones (agregación, “contagio”). La distribución binomial negativa es una generalización de la v.a. geométrica al caso de que se observan n éxitos X=nº de fracasos hasta obtener el éxito n. X es una v.a. Binomial Negativa con parámetros n, p, y se denota por BN ( n, p ) .  n − r + 1 n p ( X = r) =  p (1 − p ) r  , r = 0,1, 2,.....  r  (1 − p ) (1 − p ) E(X ) = n , V (X ) = n p p2 Notas: Una v.a. Geométrica es una BN (1, p ) Si X es BN ( n, p ) puede pensarse como “el nº de pruebas que hay que realizar para obtener el éxito n”. El “índice de agregación” de los individuos es V ( X ) E ( X ) = 1 / p .
  • 2. El proceso de Poisson y sus distribuciones asociadas. Llamamos Proceso de Poisson al experimento aleatorio que consiste en observar la aparición de sucesos puntuales en soporte contínuo (tiempo, área, volumen,…) de forma que: • El proceso es estable. Es decir, a largo plazo el nº medio de sucesos por unidad de medida, λ ( > 0 ) , es constante. • Los sucesos ocurren aleatoriamente de forma independiente. Este proceso es la generalización del proceso de Bernoulli en un soporte contínuo. La v.a. discreta más importante es la v.a. de Poisson, con importantes aplicaciones en la Biomedicina, Teoría de Colas, etc… Ejemplos: • Nº de glóbulos rojos/cm3 de sangre. • Nº de personas en la cola de cita previa/9-10 h • Nº de casos SIDA en una comunidad autónoma/mes. • Nº de casos de fiebre tifoidea/1 año,…
  • Distribución de Poisson Realizamos un experimento en las condiciones del proceso de Poisson. Una v.a. Poisson viene definida por: X = nº de veces que sale un suceso ( A ) por unidad de medida. X es una v.a. de Poisson de parámetro λ ( > 0 ) se denota por P ( λ ) . λr p ( X = r ) = e −λ , r = 0,1, 2,..... r! E(X ) = λ , Var ( X ) = λ NOTAS: 1. P ( λ ) puede aproximarse por una v.a. Binomial B ( n, p ) con n → ∞ y p → 0 , y entonces λ = np . Ejemplo: X=Nº de personas que padecen una cierta enfermedad (sobre n=50.000 hab). La prevalencia de dicha enfermedad es 1/100.000. 2. El índice de agregación de los individuos es V ( X ) E ( X ) = 1 .
  • 3. Otras distribuciones discretas notables. Existen ciertas distribuciones discretas que son muy útiles en la práctica, aunque no verifican ni el Proceso de Bernoulli ni el de Poisson. Distribución Hipergeométrica (“esquema de urnas”). Realizamos un experimento con dos posibles resultados ( A, A ), un número n de veces. Los individuos se extraen sin reemplazamiento de una población FINITA de tamaño N , donde hay N A individuos con A y N A = N − N A con A . Una v.a. Hipergeométrica H ( n, N , N A ) viene definida por: X= nº de veces que sale A en las n pruebas= {0,1, 2,...., n}  NA  N − NA   r  n − r  p ( X = r) =    , r = 0,1,..., n N n   N −n E ( X ) = np , V ( X ) = np (1 − p ) N −1 Ejemplos: X=Nº de pacientes cirróticos en 20 historias clínicas de un Servicio de Medicina Interna ( N = 224, N A = 50 ). NOTAS: Si el muestreo fuese con reemplazamiento, la variable H sería Binomial. Si la población fuese infinita (ó N → ∞ ), la variable H se aproxima por una Binomial.
  • VARIABLES ALEATORIAS CONTINUAS FUNCIÓN DE DENSIDAD Dada una variable aleatoria continua X definimos la función de densidad de X como: f: → x → f ( x) que verifica: 1. f ( x) ≥ 0 ∀x ∈ ∞ 2. ∫ −∞ f ( x)dx = 1 PROPIEDADES: El área por debajo de la curva de la densidad representa la probabilidad. Dados dos puntos cualesquiera: a y b, la probabilidad del intervalo (a,b] es el área comprendida entre la curva de la densidad, el eje OX y las rectas x = a y x = b. Es decir: b P(a < x ≤ b) = ∫ f ( x)dx a La probabilidad de cualquier punto es 0: P ( x = c) = 0 ∀c ∈
  • FUNCIÓN DE DISTRIBUCIÓN Dada una variable aleatoria X su función de distribución será una función: F: → [ 0,1] x → F ( x) = P ( X ≤ x) que debe verificar las siguientes condiciones: 1.- F (−∞) = 0 2.- F ( +∞) = 1 3.- debe ser no decreciente: x1 > x2 ⇒ F ( x1 ) ≥ F ( x2 ) Para variables aleatorias continuas podemos definir la función de distribución de forma concreta como: x0 F ( x0 ) = P( X ≤ x0 ) = ∫ f ( x)dx ∀x0 ∈ −∞ PROPIEDADES: F ′( x) = f ( x) b P(a < x ≤ b) = ∫ f ( x)dx = F (b) − F (a) a
  • PARÁMETROS DE UNA V.A. CONTÍNUA Dada una variable aleatoria continua X, con función de densidad f(X), podemos calcular sus parámetros. ESPERANZA: Representa el valor esperado de la variable aleatoria X en la población. ∞ E [ X ] = ∫ x f ( x)dx = µ −∞ VARIANZA: ∞ V [ X ] = ∫ ( x − µ )2 f ( x)dx = σ 2 −∞ ∞ V [ X ] = ∫ x 2 f ( x)dx − µ 2 = E  X 2  − E [ X ] 2 −∞   DESVIACIÓN TÍPICA: DT [ X ] = σ 2 = σ
  • VARIABLES CONTÍNUAS NOTABLES 1. Distribuciones de duraciones de Vida: • Imprescindibles en Análisis de Supervivencia. • Son distribuciones que se utilizan para modelizar la duración (vida de personas, animales o componentes físicos; duración de desempleo,…) ó el tamaño (rentas de familias, tamaño de yacimientos, etc.). • Casos importantes: Exponencial, Weibull. 2. Distribución Beta. • Es una distribución muy versátil, y admite una gran variedad de formas. • Esto permite que la incertidumbre pueda describirse con esta distribución. • Es de gran utilidad en Estadística Bayesiana, en la Teoría de la Decisión, tests estadísticos de máxima verosimilitud… 3. Distribución Normal. • Es la más importante y de mayor uso en estadística. • Multitud de experimentos generan esta variable: variables antropométricas, errores de medición, puntuaciones de tests, etc…. • El Teorema Central del Límite indica que una suma de muchas v.a.s independientes se distribuye aproximadamente según una normal. • El muestreo de la normal genera distribuciones imprescindibles en inferencia estadística: t-Student, Chi-Cuadrado, F-Fisher Snedecor. • Papel fundamental en la inferencia estadística. • Diversas aplicaciones en biomedicina: Intervalos de normalidad clínica, curvas ROC binormales, etc…
  • Distribución exponencial En un proceso de Poisson, consideremos la v.a. X= tiempo entre dos sucesos consecutivos. Decimos que X tiene un distribución exponencial de parámetro λ > 0 , que denotaremos por Exp ( λ ) , siendo λ el nº promedio de sucesos que ocurren por unidad de tiempo. λ e − λ x si x > 0 1 − e− λ x si x > 0 f ( x) =  , F ( x) =   0 otro caso  0 otro caso E( X ) =1 λ , V ( X ) =1 λ 2 Ejemplos: X=tiempo de vida de las bacterias en una cierta cepa. X= tiempo de vida (en meses) de una máquina de laboratorio= tiempo hasta el suceso “fallo”. 1.0 .8 .6 .4 .2 Exp(2) Exp(1) 0.0 0 1 2 3 4 5 6 7 8
  • NOTAS: • La distribución exponencial “no tiene memoria”, ya que: p ( X > x + t X > x) = p ( X > t) Es decir, la probabilidad de sobrevivir al tiempo x + t , sabiendo que ha sobrevivido al instante x , es la misma que sobrevivir al tiempo t . O lo que es lo mismo, la probabilidad de vivir en un intervalo, solo depende de la longitud de dicho intervalo. • La distribución exponencial se caracteriza por tener “la tasa de fallo” constante. Es decir: la probabilidad de fallar en cualquier intervalo no depende de la vida anterior. • Es, por tanto, adecuada para describir la aparición de fallos (muertes,etc) al azar, no debidas a desgaste o deterioro. • La tasa de fallo vendrá dada por: λ si x > 0 h( x ) =   0 otro caso
  • Distribución Weibull • Está estrechamente relacionada con la distribución exponencial. • A diferencia de la exponencial, modeliza de un modo más realista los tiempos de vida, ya que no asume que la tasa de fallo sea constante. • En muchas ocasiones ocurre que el riesgo de muerte varía (aumenta o disminuye) con el tiempo. • Es la distribución por defecto en Análisis de Supervivencia con el Splus. Decimos que X tiene un distribución Weibull de parámetros b y λ ( > 0 ) , que denotaremos por W ( b,λ ) , si posee la siguiente densidad: λ bbx b −1e( − λ x ) b  si x > 0 f ( x) =    0 otro caso , 1 − e( − λ x ) b  si x > 0 F ( x) =    0 otro caso b = parámetro de forma. λ =parámetro de escala. NOTAS: • La distribución exponencial “tiene memoria”. • Es adecuada para describir la aparición de fallos (muertes, etc) debidas a desgaste o deterioro. • La tasa de fallo vendrá dada por: λ bbx b −1 si x > 0 h( x ) =   0 otro caso • La Exponencial Exp ( λ ) es una Weibull W (1,λ ) .
  • Distribución Normal Decimos que X tiene una distribución Normal de parámetros µ y σ , que denotaremos por N ( µ , σ ) , si posee la siguiente densidad: 2 1  x−µ  1 −   f ( x) = e 2 σ  − ∞ < x < +∞ σ 2π donde: µ = media. σ =desviación típica. Normal Típica Es la distribución normal Z → N ( 0,1) Estandarización Es el proceso por el cual tipificamos cualquier distribución normal. Se consigue así: X −µ Si X → N (µ ,σ ) entonces Z= → N ( 0,1) σ X −µ X → N (µ ,σ ) Z= → N ( 0,1) σ µ 0
  • INTERVALOS DE NORMALIDAD (IN) • Se utilizan con frecuencia en estudios biomédicos. • Son intervalos de extremos simétricos (respecto a µ) entre los cuales se encuentra un determinado porcentaje de datos (por ejemplo, 95%, 99%,…) Intervalo de Normalidad al (1-α)100% Fijado α (p.e. 0.05), 1. Sea Z → N ( 0,1) un IN al (1-α)100% será:    − zα , zα   2 2  α α 2 2 Asum H0 o 1-α −zα 2 zα 2 2. Sea X → N ( µ , σ ) , un IN al (1-α)100% vendrá dado por:    µ − zα σ , µ + zα σ   2 2 
  • EJEMPLO: Construir un IN para el peso (Kgs.) en niños varones de 7 años. X = Peso → N (25,5) a) al 95% IN 95% es [ 25 − 1.96 × 5 , 25 + 1.96 × 5]95% [ 25 − 9.8 , 25 + 9.8]95% = [15.2 , 34.8]95% b) al 99% IN 99% es [ 25 − 2.58 × 5 , 25 + 2.58 × 5]99% [ 25 − 12.9 , 25 + 12.9]99% = [12.1 , 37.9]99%