SlideShare a Scribd company logo
1 of 25
Download to read offline
Variables aleatòries contínues.
Probabilitat i Estadística
Departament de Matemàtiques
Universitat Politècnica de Catalunya
Variables aleatòries contínues
Definició
Direm que una variable aleatòria és contínua quan pot pendre qualsevol valor x en un
intèrval.
No és possible conèixer el valor exacte d’una variable aleatòria contínua, ja que
mesurar el seu valor consisteix en classificar-lo dintre d’un intèrval. És a dir, no té
sentit preguntar-nos per la probabilitat que una variable aleatòria contínua prengui un
valor x específic.
El més semblant que podem fer per aproximar-nos a la idea (impossible) de tenir una
probabilitat de que la nostra variable aleatòria contínua prengui un valor concret,
X = x, és considerar un interval al voltant de la valor x, preguntant-nos per la
probabilitat que la variable X prengui un valor dins d’aquest interval.
Exemple: Si el resultat de mesurar una longitud és 23 cm, tot allò que podem afirmar
és que la longitud real, no observable, està en l’intèrval 22.5 a 23.5 cm.
VA contínues
Funció de densitat de probabilitat
Donada una VA X, definim la funció de densitat de probabilitat a la funció:
f : R −→ R
que compleix les condicions següents:
f(x) ≥ 0, ∀x ∈ R
R +∞
−∞
f(x)dx = 1
P(a < X < b) =
R a
b
f(x)dx
El coneixem de la la funció de densitat f(x) permet calcular qualsevol probabilitat tot
integrant-la. Per exemple:
P(X ≤ x) =
R x
−∞
f(x)dx
P(x1 < X < x2) =
R x2
x1
f(x)dx
En conseqüència, la probabilitat que un model de variable aleatòria contínua assigna
a l’observació d’un valor exacte qualsevol és zero.
Funció de distribució de probabilitat F(x)
Donada una VA contínua X, definim la funció de distribució com:
F(x) = P(X ≤ x)
Tenint en compte allò que acabem d’explicar per a la funció de densitat de probabilitat:
F(x) = P(X ≤ x) =
R x
−∞
f(x)dx
F(x) és creixent, no negativa, contínua i derivable
P(x1 < X < x2) = F(x2) − F(x1)
De fet, tindrem:
f(x) = dF(x)
dx
La seva gràfica és de la forma:
A l’Hospital de Sant Joan de Deu, es va comprovar que el pes en kg dels nens en
nèixer és una variable aleatòria amb funció de densitat:
f(x) =
(
1
6
x si X pren valors en [2, 4]
0 si X pren valors altrament
Aleshores, tindrem:
si x < 2: F(x) = 0
si 2 ≤ x ≤ 4: F(x) =
R x
−∞
1
6
tdt =
R x
2
1
6
tdt = x2
−4
12
si 4 < x: F(x) =
R 4
−∞
1
6
tdt =
R 4
2
1
6
tdt = 1
Així doncs, la seva funció de distribució de probabilitat és:
F(x) =
( 0 si x < 2
x2
−4
12
si x pren valors en [2, 4]
1 si x > 4
Calculem ara la seva esperança:
µX = E(X) =
Z 4
2
x ·
1
6
xdx =
1
6
Z 4
2
x2
dx =

x3
18
x=4
x=2
=
43
18
−
23
18
=
28
9
≈ 3.11kg
Esperança d’una VA contínua
Recordeu que és una mesura de la centralitat de les dades.
Esperança
Donada una VA contínua, calculem l’esperança de X o mitjana com:
µX = E(X) =
( R +∞
−∞
x · f(x)dx si X pren valors en (−∞, +∞)
R b
a
x · f(x)dx si X pren valors en (a, b)
on f(x) és la funció de probabilitat.
Observació: En el primer cas, cal suposar que la integral impròpia és absolutament
convergent, és a dir: Z +∞
−∞
x · f(x)dx  ∞
Propietats de l’esperança:
E(a X) = a E(X) per a ∈ R.
E(X + b) = E(X) + b i en conseqüència:
E(aX + b) = aE(X) + b
Moda i Mediana
Per a una VA contínua no té sentit parlar del valor de la VA amb probabilitat màxima.
Definim la moda com el valor de la variable que fa màxima la funció de densitat de
probabilitat. Sigui xmo aquest valor, aleshores f(x) és màxima i per tant es compleix:
f′
(xmo) = 0
f′′
(xmo)  0
Algunes vegades tindrem dos, tres o més valor que tenen relativament grans
probabilitats d’ocurrència. En tals casos direm que la distribució és bimodal, trimodal
o multimodal, respectivament.
Definim la mediana, Me, com el valor x pel qual:
P(X ≤ x) = P(X ≥ x) =
1
2
És a dir: La mediana correspon a l’ordenada que separa una corba de densitat en
dues parts que tenen àrees iguals de 1
2
cadascuna:
P(X ≤ Me) =
Z Me
−∞
f(x)dx =
1
2
Per a calcular Me, caldrà aillar-la de l’equació anterior.
Continuem amb l’exemple del pes dels nadons en nèixer. Anem a calcular la seva
moda i mediana.
Moda: La funció de densitat és una recta amb pendent positiva definida entre
els valors X = 2 i X = 4. Per tant, el seu màxim valor es trobarà a X = 4. No té
massa sentit. Així doncs, quan es treballa amb variables contínues, el valor
màxim no sempre és la moda. En aquest exemple en concret, no existeix la
moda.
Mediana: Com ja haviem calculat la funció de distribució de probabilitat de la
variable X, la mediana serà el valor que acumula una probabilitat de 1
2
, per tant:
Me2
− 4
12
= 0.5 −→ Me =
√
0.5 · 12 + 4 ≈ 3.16kg
Calculem ara la seva variància. Recordem que E(X) = 28
9
. Aleshores:
σ2
X = Var(X) = E[(X − µ)2
] =
Z 4
2
(x −
28
9
)2
·
1
6
xdx ≈ 0.32099kg2
O bé la podem calcular així:
σ2
X = E[X2
] − (E(X))2
=
Z 4
2
x2
·
1
6
xdx −

28
9
2
Anem ara a redefinir les mesures de dispersió per a una VA contínua
Variància i desviació típica
Donada una VA contínua, anomenem variància de X a:
σ2
= V(X) = E[(X − µ)2
]
σ2
=
( R +∞
−∞
(x − µ)2
· f(x)dx si X pren valors en (−∞, +∞)
R b
a
(x − µ)2
· f(x)dx si X pren valors en (a, b)
També es compleix: σ2
= V(X) = E[(X − µ)2
] = E[X2
] − (E(X))2
Anàlogament, la desviació típica és:
σ = +
√
σ2 =
q
E[(X − µ)2].
Propietats de la variància
V(k) = 0 si k és una constant.
V(a X + b) = a2
V(X) per a ∈ R i b ∈ R.
Definirem ara les variables aleatòries tipificades o normalitzades, que són
adimensionals. Per això son útils per comparar diferents distribucions
Variables aleatòries tipificades
Donada una VA X, amb mitjana µ i desviació típica σ, podem definir una variable
aleatòria normalitzada o tipificada com:
X∗
=
X − µ
σ
.
on X∗
té esperança 0 i variància 1: E(X∗
) = 0 i V(X∗
) = 1.
La desigualtat de Txebixev permet interpretar la informació conjunta que ens
proporciona l’esperança i variància d’una VA
Desigualtat de Txebixev
Donada una VA X, la desigualtat de Txebixev ens diu que per a tot k  0:
P(|X − E(X)| ≥ k) ≤
1
k2
V(X).
La demostració és anàlega a la feta al tema d’Estadística Descriptiva, considerant ara
probalilitats en comptes de freqüències.
Percentils d’una VA X contínua
Podem dividir l’àrea sota una corba de densitat de probabilitat f(x) usant ordenades,
de manera que l’àrea a l’esquerra de l’ordenada correspongui a un percentatge de
l’àrea total que és la unitat. Els valors de x de la VA X que corresponen a aquestes
àrees s’anomenen percentils de X.
El pth
percentil és el valor xp tal que P(X  xp) = p
Per exemple, la mediana seria el percentil cinquanta i Q3, el setanta-cinquè percentil.
Altres mesures de dispersió
Rang (o recorregut): És la diferència entre els valors més grans i més petits que
poden pendre una VA X. Aquesta mesura no tindrà sentit si algun dels valors
extrems és infinit.
Rang interquartílic: La diferència entre x0.75 i x0.25.
Distribució Uniforme Contínua U(a,b)
Una variable aleatòria X segueix una distribució uniforme contínua de paràmetres a i
b on a, b ∈ R, a  b si la seva funció de densitat de probabilitat és:
f(x) =
(
1
b−a
a  x  b
0 altrament
En aquest cas, calcular probabilitats no és més que calcular l’àrea d’un rectangle
d’alçada 1
b−a
.
Distribució Uniforme Contínua U(a,b) continuació
F(x) = P(X ≤ x) =
( 0 si x  a
R x
a
1
b−a
dt = x−a
b−a
si x pren valors en [a, b]
1 si x  b
El valor esperat per la distribuciò uniforme i la seva variància són:
µX = E(X) =
Z b
a
1
b − a
xdx =
1
b − a

x2
2
x=b
x=a
=
1
b − a
b2
− a2
2
=
b + a
2
σ2
X = V(X) =
 Z b
a
1
b − a
x2
dx

−

b + a
2
2
= ... =
(b − a)2
12
Un autobus passa cada 15 minuts per una parada. Trobeu la probabilitat d’esperar
menys de 10 minuts, el temps mig d’espera i la desviació típica del temps d’espera.
Sigui X =temps d’espera de l’autobus. Donat que l’autobus passa cada 15 minuts i
no sabem quan és que ha passat, res indica que un intèrval de temps sigui més
probable que un altre, per tant X segueix una distribució uniforme de paràmetres
a = 0 i b = 15, donat que 0 és el temps mínim d’espera i 15, el màxim.
Així doncs, X ∼ Uniforme(0, 15) amb funció de densitat de probabilitat:
f(x) =
(
1
15
0  x  15
0 altrament
La seva funció de distribució de probabilitat serà:
F(x) = P(X ≤ x) =
( 0 si x  0
x
15
si x pren valors en [0, 15]
1 si x  15
La probabilitat que el temps d’espera sigui menor de 10 minuts és:
P(X ≤ 10) = F(10) =
10
15
=
2
3
=≈ 0.667
El temps mig d’espera serà: E(X) = 0+15
2
= 7.5 minuts
La desviació típica : σ = 15−0
√
12
≈ 4.33 minuts
Distribució exponencial de paràmetre λ
Direm que una variable aleatòria X segueix una distribució exponencial de paràmetre
λ si la seva funció de densitat de probabilitat ve donada per:
f(x) =
(
0 x  0
λe−λx
x  0
El valor esperat de la distribuciò exponencial i la seva variància són:
µX = E(X) =
Z ∞
0
xλe−λx
dx = ... =
1
λ
σ2
X = V(X) =
Z ∞
0
x2
λe−λx
dx −
1
λ2
= ... =
1
λ2
Distribució exponencial de paràmetre λ
La seva funció de distribució de probabilitat serà:
F(x) = P(X ≤ x) =
(
0 si x ≤ 0
R x
0
λe−λt
dt = 1 − e−λx
si x  0
La distribució exponencial té un paper important en teoria de cues i en problemes de
confiança.
Exemples: el temps de falla als components i sistemes elèctrics, generalment es
modelen amb una distribució exponencial. També, l’intèrval de temps entre
terratrèmols (d’una determinada magnitud). Donada una màquina que produeix
filferro, la quantitat de metres fins a trobar una falla en el filferro es podria modelar
com una exponencial; el temps de vida d’una bombeta; etc.
Falta de memòria de la distribució exponencial
La distribució exponencial verifica la següent propietat:
P(X  s + m|X  s) = P(X  m)
Aplicant la fórmula de la probabilitat condicionada:
P(X  s + m|X  s) = P(Xs+m,Xs)
P(Xs)
= P(Xs+m)
P(Xs)
= e−λ(s+m)
e−λ(s) = P(X  m)
Distribució normal N(µ, σ)
Una VA contínua es diu que té una distribució normal o de Laplace-Gauss de mitja µ i
desviació típica σ, N(µ, σ), si:
1 X pot prendre qualsevol valor en l’intèrval (−∞, +∞)
2 La seva funció de densitat de probabilitat és:
f(x) =
1
σ
√
2π
e
− 1
2
(x−µ)2
σ2
En general no té simetria respecte els eixos pero sí respecte la recta x = µ.
No admet primitiva, per tant el càlcul de probabilitats el farem amb integració
numérica o tipificant i usant taules per N(0,1).
Distribució normal N(µ, σ)
1 σ fixa i µ variant
2 σ variant i µ fix
Exemple 1 Exemple 2
Propietat reproductiva
Donades VA independents X1 ∼ N(µ1, σ1) i X2 ∼ N(µ1, σ1), la VA que s’obté fent
X = X1 ± X2, també té una distribució normal N(µ, σ) tal que:
µ = µ1 ± µ2 σ =
q
σ2
1 + σ2
2
Es pot generalitzar. Sigui la VA X = X1 ± X2 ± ... ± Xn on Xi ∼ N(µi , σi ) independents:
µ = µ1 ± µ2 ± ... ± µn σ =
q
σ2
1 + σ2
2 + ... + σ2
n
Distribució normal tipificada (o estàndar) N(1,0)
Si X es una VA N(µ, σ), la VA tipificada:
Z = X−µ
σ
segueix una distribució normal amb µZ = 0 i σZ = 1, és a dir, Z ∼ N(0, 1). La VA Z
rep el nom de variable tipificada de X, i a la corba de la seva funció de densitat, corva
normal tipificada. Característiques:
No depèn de cap paràmetre.
La seva funció de densitat és simètrica respecte a l’eix x = 0, té un màxim en
aquest eix i dos punts d’inflexió a x = −1 i x = 1.
Els valors de la seva funció de distribució de probabilitat estan tabulats.
Com farem per calcular les probabilitats si X és N(µ, σ)?
P(X ≤ a) P(a ≤ X ≤ b)
Farem el següent canvi tot tipificant la variable X:
P(X ≤ a) = P(
X − µ
σ
≤
a − µ
σ
) = P(Z ≤ z1)
P(a ≤ X ≤ b) = P(a−µ
σ
≤ X−µ
σ
≤ b−µ
σ
) = P(z1 ≤ Z ≤ z2) = P(Z ≤ z2) − P(Z ≤ z1)
Distribució normal tipificada (o estàndar) N(1,0)
Ús de les taules per a valors positius:
Distribució normal tipificada (o estàndar) N(1,0)
Ús de les taules per a valors negatius:
Aproximació de la Binomial amb la Normal
Sigui X una VA amb distribució Binomial(n,p) amb funció de massa de probabilitat:
f(x) = P(X = x) = n
x

px
(1 − p)n−x
sota certes circumstàncies, la seva distriució es pot aproximar a partir d’una
distribució normal.
Teorema de Laplace-Moivre:
Sigui X una VA amb distribució Binomial(n,p). Si n és gran, aleshores X és
aproximadament normal amb esperança np i variància np(1 − p), de manera que la
variable tipificada:
Z = X−np
√
npq
és N(0, 1) quan n −→ ∞
A la pràctica, n30 i p ≈ 0.5 (aquestes condicions poden variar segons la bibliografia
consultada, p.ex. n30 i np  5 i nq  5). Aquest teorema és una cas particular del
Teorema Central del Límit, que veurem més endavant.
Màquina de Galton!
Correcció de continuïtat de Yates Per utilitzar correctament aquesta aproximació que
transforma una VA discreta X en una VA contínua Z es necessari fer una correcció
de continuïtat: Com X pren valor enters 0,1,2,3,...,a,...,b,... aleshores:
P(X = a) ≈ P(a − 0.5 ≤ X ≤ a + 0.5)
P(a ≤ X ≤ b) ≈ P(a − 0.5 ≤ X ≤ b + 0.5)
Exemple:
Es llança una moneda perfecta a l’aire 100 vegades i ens pregunten, quina és la
probabilitat d’obtenir entre 35 i 60 cares en els 100 llançaments?
Fem primer el càlcul aplicant la distribució binomial (resultat exacte):
P(35 ≤ X ≤ 60) =
P60
x=35
100
x

(1
2
)x
(1
2
)n−x
=(minitab)=0.981504
Aproximem a una distribució normal:
N(µ = np, σ =
p
np(1 − p)) = N(µ = 50, σ = 5)
P(35 ≤ X ≤ 60) = P(35 − 0.5 ≤ X ≤ 60 + 0.5) = P(34.5 ≤ X ≤ 60.5) =
P(34.5−50
5
≤ X−50
5
≤ 60.5−50
5
) = P(−3.1 ≤ Z ≤ 2.1) = P(Z ≤ 2.1) − P(Z ≤
−3.1) = (taules) = 0.9821 − 0.0010 = 0.9811
Observem que la diferència entre els dos resultats no és massa gran.
Aproximació de la Poisson amb la Normal
Sigui X una VA amb distribució Poisson(λ) amb funció de massa de probabilitat:
f(x) = P(X = x) = e−λ λx
x!
Si λ és suficientment gran (λ  5) aleshores es pot aproximar per una distribució
normal d’esperança λ i variància λ, de manera que la variable tipificada:
Z = X−λ
√
λ
Correcció de continuïtat de Yates Per utilitzar correctament aquesta aproximació que
transforma una VA discreta X en una VA contínua Z es necessari fer una correcció
de continuïtat: Com X pren valor enters 0,1,2,3,...,a,...,b,... aleshores:
P(X = a) ≈ P(a − 0.5 ≤ X ≤ a + 0.5)
P(a ≤ X ≤ b) ≈ P(a − 0.5 ≤ X ≤ b + 0.5)
Donada X ∼ Poisson(125).CalculeuP(X ≥ 100).
P(X ≥ 100) = 1 − P(X ≤ 99) = 1 −
P99
k=0 e−125 125k
K!
= 1 − 0.0094 = 0.9906
P(X ≥ 100) = 1 − P(X ≤ 99) = 1 − P(X ≤ 99 + 0.5) = 1 − P(X ≤ 99.5) =
1 − P(Z ≤ 99.5−125
√
125
) = 1 − P(Z ≤ −2.28) = 1 − 0.0113 = 0.9887
Teorema Central del Límit
Suposem X1,X2,... VA independents amb:
E(Xi ) = µi V(Xi ) = σ2
i , i = 1, 2, ...
Per a cada n ≥ 1 construim la variable Sn: Sn =
Pn
i=1 Xi
E(Sn) =
Pn
i=1 µi V(Sn) =
Pn
i=1 σ2
i
Teorema Central del Límit
Encara que les VA Xi no siguin necessàriament normals, per a n gran Sn és
aproximadament normal amb esperança E(Sn) =
Pn
i=1 µi i variància
V(Sn) =
Pn
i=1 σ2
i , és a dir:
Sn = N

Pn
i=1 µi ,
p
(
Pn
i=1 σ2
i )

Sn−
Pn
i=1 µi
√Pn
i=1
σ2
i
≈ N(0, 1)
Cas particular per la mitjana
Si X1,X2,...,Xn és una mostra aleatòria dúna variable X amb qualsevol distribució (fins
i tot desconeguda), amb mitjana µ i desviació típica σ. Aleshores, si n és prou gran:
X ≈ N

µ,
σ
√
n

More Related Content

Similar to va_continues (2).pdf

Document Php Document Name Mates 20polinomis
Document Php Document Name Mates 20polinomisDocument Php Document Name Mates 20polinomis
Document Php Document Name Mates 20polinomislauragaby
 
Exercicis de selectivitat creixement, extrems
Exercicis de selectivitat creixement, extremsExercicis de selectivitat creixement, extrems
Exercicis de selectivitat creixement, extremsjosepmarialluch
 
Teoria funcions
Teoria funcionsTeoria funcions
Teoria funcionsmbalag27
 
Matemàtiques 2n de batxillerat Científic
Matemàtiques 2n de batxillerat CientíficMatemàtiques 2n de batxillerat Científic
Matemàtiques 2n de batxillerat CientíficAlbert Sola
 
Treball de mates(funcions)
Treball de mates(funcions) Treball de mates(funcions)
Treball de mates(funcions) sandrukkii
 
Treball de mates(funcions)
Treball de mates(funcions)Treball de mates(funcions)
Treball de mates(funcions)sandrukkii
 
Lesequacionsdeprimergrau annamaria
Lesequacionsdeprimergrau annamariaLesequacionsdeprimergrau annamaria
Lesequacionsdeprimergrau annamariaannamariamorillo
 
Sol exfinal14v2
Sol exfinal14v2Sol exfinal14v2
Sol exfinal14v2adilupc
 
Les equacions de primer grau
Les equacions de primer grauLes equacions de primer grau
Les equacions de primer graumcarbo58
 
Les equacions de primer grau
Les equacions de primer grauLes equacions de primer grau
Les equacions de primer graumcarbo58
 
Unitat 4. Primitives.pdf
Unitat 4. Primitives.pdfUnitat 4. Primitives.pdf
Unitat 4. Primitives.pdfssuserf544c8
 
Matemàtiques problemes
Matemàtiques problemesMatemàtiques problemes
Matemàtiques problemesjonay98
 
Matemàtiques problemes
Matemàtiques problemesMatemàtiques problemes
Matemàtiques problemesjonay98
 
Optimiztacio amb restriccions
Optimiztacio amb restriccionsOptimiztacio amb restriccions
Optimiztacio amb restriccionsMelanie Nogué
 
Joc derivades batx
Joc derivades batxJoc derivades batx
Joc derivades batxxaviermoron
 

Similar to va_continues (2).pdf (20)

Document Php Document Name Mates 20polinomis
Document Php Document Name Mates 20polinomisDocument Php Document Name Mates 20polinomis
Document Php Document Name Mates 20polinomis
 
wikimates 2
wikimates 2wikimates 2
wikimates 2
 
Exercicis de selectivitat creixement, extrems
Exercicis de selectivitat creixement, extremsExercicis de selectivitat creixement, extrems
Exercicis de selectivitat creixement, extrems
 
Wiki Mates
Wiki MatesWiki Mates
Wiki Mates
 
Teoria funcions
Teoria funcionsTeoria funcions
Teoria funcions
 
Matemàtiques 2n de batxillerat Científic
Matemàtiques 2n de batxillerat CientíficMatemàtiques 2n de batxillerat Científic
Matemàtiques 2n de batxillerat Científic
 
Treball de mates(funcions)
Treball de mates(funcions) Treball de mates(funcions)
Treball de mates(funcions)
 
Treball de mates(funcions)
Treball de mates(funcions)Treball de mates(funcions)
Treball de mates(funcions)
 
Teorema del residu
Teorema del residuTeorema del residu
Teorema del residu
 
Funcions
Funcions Funcions
Funcions
 
Treball Mates
Treball MatesTreball Mates
Treball Mates
 
Lesequacionsdeprimergrau annamaria
Lesequacionsdeprimergrau annamariaLesequacionsdeprimergrau annamaria
Lesequacionsdeprimergrau annamaria
 
Sol exfinal14v2
Sol exfinal14v2Sol exfinal14v2
Sol exfinal14v2
 
Les equacions de primer grau
Les equacions de primer grauLes equacions de primer grau
Les equacions de primer grau
 
Les equacions de primer grau
Les equacions de primer grauLes equacions de primer grau
Les equacions de primer grau
 
Unitat 4. Primitives.pdf
Unitat 4. Primitives.pdfUnitat 4. Primitives.pdf
Unitat 4. Primitives.pdf
 
Matemàtiques problemes
Matemàtiques problemesMatemàtiques problemes
Matemàtiques problemes
 
Matemàtiques problemes
Matemàtiques problemesMatemàtiques problemes
Matemàtiques problemes
 
Optimiztacio amb restriccions
Optimiztacio amb restriccionsOptimiztacio amb restriccions
Optimiztacio amb restriccions
 
Joc derivades batx
Joc derivades batxJoc derivades batx
Joc derivades batx
 

va_continues (2).pdf

  • 1. Variables aleatòries contínues. Probabilitat i Estadística Departament de Matemàtiques Universitat Politècnica de Catalunya
  • 2. Variables aleatòries contínues Definició Direm que una variable aleatòria és contínua quan pot pendre qualsevol valor x en un intèrval. No és possible conèixer el valor exacte d’una variable aleatòria contínua, ja que mesurar el seu valor consisteix en classificar-lo dintre d’un intèrval. És a dir, no té sentit preguntar-nos per la probabilitat que una variable aleatòria contínua prengui un valor x específic. El més semblant que podem fer per aproximar-nos a la idea (impossible) de tenir una probabilitat de que la nostra variable aleatòria contínua prengui un valor concret, X = x, és considerar un interval al voltant de la valor x, preguntant-nos per la probabilitat que la variable X prengui un valor dins d’aquest interval. Exemple: Si el resultat de mesurar una longitud és 23 cm, tot allò que podem afirmar és que la longitud real, no observable, està en l’intèrval 22.5 a 23.5 cm.
  • 3. VA contínues Funció de densitat de probabilitat Donada una VA X, definim la funció de densitat de probabilitat a la funció: f : R −→ R que compleix les condicions següents: f(x) ≥ 0, ∀x ∈ R R +∞ −∞ f(x)dx = 1 P(a < X < b) = R a b f(x)dx El coneixem de la la funció de densitat f(x) permet calcular qualsevol probabilitat tot integrant-la. Per exemple: P(X ≤ x) = R x −∞ f(x)dx P(x1 < X < x2) = R x2 x1 f(x)dx En conseqüència, la probabilitat que un model de variable aleatòria contínua assigna a l’observació d’un valor exacte qualsevol és zero.
  • 4. Funció de distribució de probabilitat F(x) Donada una VA contínua X, definim la funció de distribució com: F(x) = P(X ≤ x) Tenint en compte allò que acabem d’explicar per a la funció de densitat de probabilitat: F(x) = P(X ≤ x) = R x −∞ f(x)dx F(x) és creixent, no negativa, contínua i derivable P(x1 < X < x2) = F(x2) − F(x1) De fet, tindrem: f(x) = dF(x) dx La seva gràfica és de la forma:
  • 5. A l’Hospital de Sant Joan de Deu, es va comprovar que el pes en kg dels nens en nèixer és una variable aleatòria amb funció de densitat: f(x) = ( 1 6 x si X pren valors en [2, 4] 0 si X pren valors altrament Aleshores, tindrem: si x < 2: F(x) = 0 si 2 ≤ x ≤ 4: F(x) = R x −∞ 1 6 tdt = R x 2 1 6 tdt = x2 −4 12 si 4 < x: F(x) = R 4 −∞ 1 6 tdt = R 4 2 1 6 tdt = 1 Així doncs, la seva funció de distribució de probabilitat és: F(x) = ( 0 si x < 2 x2 −4 12 si x pren valors en [2, 4] 1 si x > 4 Calculem ara la seva esperança: µX = E(X) = Z 4 2 x · 1 6 xdx = 1 6 Z 4 2 x2 dx = x3 18 x=4 x=2 = 43 18 − 23 18 = 28 9 ≈ 3.11kg
  • 6. Esperança d’una VA contínua Recordeu que és una mesura de la centralitat de les dades. Esperança Donada una VA contínua, calculem l’esperança de X o mitjana com: µX = E(X) = ( R +∞ −∞ x · f(x)dx si X pren valors en (−∞, +∞) R b a x · f(x)dx si X pren valors en (a, b) on f(x) és la funció de probabilitat. Observació: En el primer cas, cal suposar que la integral impròpia és absolutament convergent, és a dir: Z +∞ −∞ x · f(x)dx ∞ Propietats de l’esperança: E(a X) = a E(X) per a ∈ R. E(X + b) = E(X) + b i en conseqüència: E(aX + b) = aE(X) + b
  • 7. Moda i Mediana Per a una VA contínua no té sentit parlar del valor de la VA amb probabilitat màxima. Definim la moda com el valor de la variable que fa màxima la funció de densitat de probabilitat. Sigui xmo aquest valor, aleshores f(x) és màxima i per tant es compleix: f′ (xmo) = 0 f′′ (xmo) 0 Algunes vegades tindrem dos, tres o més valor que tenen relativament grans probabilitats d’ocurrència. En tals casos direm que la distribució és bimodal, trimodal o multimodal, respectivament. Definim la mediana, Me, com el valor x pel qual: P(X ≤ x) = P(X ≥ x) = 1 2 És a dir: La mediana correspon a l’ordenada que separa una corba de densitat en dues parts que tenen àrees iguals de 1 2 cadascuna: P(X ≤ Me) = Z Me −∞ f(x)dx = 1 2 Per a calcular Me, caldrà aillar-la de l’equació anterior.
  • 8. Continuem amb l’exemple del pes dels nadons en nèixer. Anem a calcular la seva moda i mediana. Moda: La funció de densitat és una recta amb pendent positiva definida entre els valors X = 2 i X = 4. Per tant, el seu màxim valor es trobarà a X = 4. No té massa sentit. Així doncs, quan es treballa amb variables contínues, el valor màxim no sempre és la moda. En aquest exemple en concret, no existeix la moda. Mediana: Com ja haviem calculat la funció de distribució de probabilitat de la variable X, la mediana serà el valor que acumula una probabilitat de 1 2 , per tant: Me2 − 4 12 = 0.5 −→ Me = √ 0.5 · 12 + 4 ≈ 3.16kg Calculem ara la seva variància. Recordem que E(X) = 28 9 . Aleshores: σ2 X = Var(X) = E[(X − µ)2 ] = Z 4 2 (x − 28 9 )2 · 1 6 xdx ≈ 0.32099kg2 O bé la podem calcular així: σ2 X = E[X2 ] − (E(X))2 = Z 4 2 x2 · 1 6 xdx − 28 9 2
  • 9. Anem ara a redefinir les mesures de dispersió per a una VA contínua Variància i desviació típica Donada una VA contínua, anomenem variància de X a: σ2 = V(X) = E[(X − µ)2 ] σ2 = ( R +∞ −∞ (x − µ)2 · f(x)dx si X pren valors en (−∞, +∞) R b a (x − µ)2 · f(x)dx si X pren valors en (a, b) També es compleix: σ2 = V(X) = E[(X − µ)2 ] = E[X2 ] − (E(X))2 Anàlogament, la desviació típica és: σ = + √ σ2 = q E[(X − µ)2]. Propietats de la variància V(k) = 0 si k és una constant. V(a X + b) = a2 V(X) per a ∈ R i b ∈ R.
  • 10. Definirem ara les variables aleatòries tipificades o normalitzades, que són adimensionals. Per això son útils per comparar diferents distribucions Variables aleatòries tipificades Donada una VA X, amb mitjana µ i desviació típica σ, podem definir una variable aleatòria normalitzada o tipificada com: X∗ = X − µ σ . on X∗ té esperança 0 i variància 1: E(X∗ ) = 0 i V(X∗ ) = 1. La desigualtat de Txebixev permet interpretar la informació conjunta que ens proporciona l’esperança i variància d’una VA Desigualtat de Txebixev Donada una VA X, la desigualtat de Txebixev ens diu que per a tot k 0: P(|X − E(X)| ≥ k) ≤ 1 k2 V(X). La demostració és anàlega a la feta al tema d’Estadística Descriptiva, considerant ara probalilitats en comptes de freqüències.
  • 11. Percentils d’una VA X contínua Podem dividir l’àrea sota una corba de densitat de probabilitat f(x) usant ordenades, de manera que l’àrea a l’esquerra de l’ordenada correspongui a un percentatge de l’àrea total que és la unitat. Els valors de x de la VA X que corresponen a aquestes àrees s’anomenen percentils de X. El pth percentil és el valor xp tal que P(X xp) = p Per exemple, la mediana seria el percentil cinquanta i Q3, el setanta-cinquè percentil. Altres mesures de dispersió Rang (o recorregut): És la diferència entre els valors més grans i més petits que poden pendre una VA X. Aquesta mesura no tindrà sentit si algun dels valors extrems és infinit. Rang interquartílic: La diferència entre x0.75 i x0.25.
  • 12. Distribució Uniforme Contínua U(a,b) Una variable aleatòria X segueix una distribució uniforme contínua de paràmetres a i b on a, b ∈ R, a b si la seva funció de densitat de probabilitat és: f(x) = ( 1 b−a a x b 0 altrament En aquest cas, calcular probabilitats no és més que calcular l’àrea d’un rectangle d’alçada 1 b−a .
  • 13. Distribució Uniforme Contínua U(a,b) continuació F(x) = P(X ≤ x) = ( 0 si x a R x a 1 b−a dt = x−a b−a si x pren valors en [a, b] 1 si x b El valor esperat per la distribuciò uniforme i la seva variància són: µX = E(X) = Z b a 1 b − a xdx = 1 b − a x2 2 x=b x=a = 1 b − a b2 − a2 2 = b + a 2 σ2 X = V(X) = Z b a 1 b − a x2 dx − b + a 2 2 = ... = (b − a)2 12
  • 14. Un autobus passa cada 15 minuts per una parada. Trobeu la probabilitat d’esperar menys de 10 minuts, el temps mig d’espera i la desviació típica del temps d’espera. Sigui X =temps d’espera de l’autobus. Donat que l’autobus passa cada 15 minuts i no sabem quan és que ha passat, res indica que un intèrval de temps sigui més probable que un altre, per tant X segueix una distribució uniforme de paràmetres a = 0 i b = 15, donat que 0 és el temps mínim d’espera i 15, el màxim. Així doncs, X ∼ Uniforme(0, 15) amb funció de densitat de probabilitat: f(x) = ( 1 15 0 x 15 0 altrament La seva funció de distribució de probabilitat serà: F(x) = P(X ≤ x) = ( 0 si x 0 x 15 si x pren valors en [0, 15] 1 si x 15 La probabilitat que el temps d’espera sigui menor de 10 minuts és: P(X ≤ 10) = F(10) = 10 15 = 2 3 =≈ 0.667 El temps mig d’espera serà: E(X) = 0+15 2 = 7.5 minuts La desviació típica : σ = 15−0 √ 12 ≈ 4.33 minuts
  • 15. Distribució exponencial de paràmetre λ Direm que una variable aleatòria X segueix una distribució exponencial de paràmetre λ si la seva funció de densitat de probabilitat ve donada per: f(x) = ( 0 x 0 λe−λx x 0 El valor esperat de la distribuciò exponencial i la seva variància són: µX = E(X) = Z ∞ 0 xλe−λx dx = ... = 1 λ σ2 X = V(X) = Z ∞ 0 x2 λe−λx dx − 1 λ2 = ... = 1 λ2
  • 16. Distribució exponencial de paràmetre λ La seva funció de distribució de probabilitat serà: F(x) = P(X ≤ x) = ( 0 si x ≤ 0 R x 0 λe−λt dt = 1 − e−λx si x 0 La distribució exponencial té un paper important en teoria de cues i en problemes de confiança. Exemples: el temps de falla als components i sistemes elèctrics, generalment es modelen amb una distribució exponencial. També, l’intèrval de temps entre terratrèmols (d’una determinada magnitud). Donada una màquina que produeix filferro, la quantitat de metres fins a trobar una falla en el filferro es podria modelar com una exponencial; el temps de vida d’una bombeta; etc. Falta de memòria de la distribució exponencial La distribució exponencial verifica la següent propietat: P(X s + m|X s) = P(X m) Aplicant la fórmula de la probabilitat condicionada: P(X s + m|X s) = P(Xs+m,Xs) P(Xs) = P(Xs+m) P(Xs) = e−λ(s+m) e−λ(s) = P(X m)
  • 17. Distribució normal N(µ, σ) Una VA contínua es diu que té una distribució normal o de Laplace-Gauss de mitja µ i desviació típica σ, N(µ, σ), si: 1 X pot prendre qualsevol valor en l’intèrval (−∞, +∞) 2 La seva funció de densitat de probabilitat és: f(x) = 1 σ √ 2π e − 1 2 (x−µ)2 σ2 En general no té simetria respecte els eixos pero sí respecte la recta x = µ. No admet primitiva, per tant el càlcul de probabilitats el farem amb integració numérica o tipificant i usant taules per N(0,1).
  • 18. Distribució normal N(µ, σ) 1 σ fixa i µ variant 2 σ variant i µ fix Exemple 1 Exemple 2 Propietat reproductiva Donades VA independents X1 ∼ N(µ1, σ1) i X2 ∼ N(µ1, σ1), la VA que s’obté fent X = X1 ± X2, també té una distribució normal N(µ, σ) tal que: µ = µ1 ± µ2 σ = q σ2 1 + σ2 2 Es pot generalitzar. Sigui la VA X = X1 ± X2 ± ... ± Xn on Xi ∼ N(µi , σi ) independents: µ = µ1 ± µ2 ± ... ± µn σ = q σ2 1 + σ2 2 + ... + σ2 n
  • 19. Distribució normal tipificada (o estàndar) N(1,0) Si X es una VA N(µ, σ), la VA tipificada: Z = X−µ σ segueix una distribució normal amb µZ = 0 i σZ = 1, és a dir, Z ∼ N(0, 1). La VA Z rep el nom de variable tipificada de X, i a la corba de la seva funció de densitat, corva normal tipificada. Característiques: No depèn de cap paràmetre. La seva funció de densitat és simètrica respecte a l’eix x = 0, té un màxim en aquest eix i dos punts d’inflexió a x = −1 i x = 1. Els valors de la seva funció de distribució de probabilitat estan tabulats. Com farem per calcular les probabilitats si X és N(µ, σ)? P(X ≤ a) P(a ≤ X ≤ b) Farem el següent canvi tot tipificant la variable X: P(X ≤ a) = P( X − µ σ ≤ a − µ σ ) = P(Z ≤ z1) P(a ≤ X ≤ b) = P(a−µ σ ≤ X−µ σ ≤ b−µ σ ) = P(z1 ≤ Z ≤ z2) = P(Z ≤ z2) − P(Z ≤ z1)
  • 20. Distribució normal tipificada (o estàndar) N(1,0) Ús de les taules per a valors positius:
  • 21. Distribució normal tipificada (o estàndar) N(1,0) Ús de les taules per a valors negatius:
  • 22. Aproximació de la Binomial amb la Normal Sigui X una VA amb distribució Binomial(n,p) amb funció de massa de probabilitat: f(x) = P(X = x) = n x px (1 − p)n−x sota certes circumstàncies, la seva distriució es pot aproximar a partir d’una distribució normal. Teorema de Laplace-Moivre: Sigui X una VA amb distribució Binomial(n,p). Si n és gran, aleshores X és aproximadament normal amb esperança np i variància np(1 − p), de manera que la variable tipificada: Z = X−np √ npq és N(0, 1) quan n −→ ∞ A la pràctica, n30 i p ≈ 0.5 (aquestes condicions poden variar segons la bibliografia consultada, p.ex. n30 i np 5 i nq 5). Aquest teorema és una cas particular del Teorema Central del Límit, que veurem més endavant. Màquina de Galton! Correcció de continuïtat de Yates Per utilitzar correctament aquesta aproximació que transforma una VA discreta X en una VA contínua Z es necessari fer una correcció de continuïtat: Com X pren valor enters 0,1,2,3,...,a,...,b,... aleshores: P(X = a) ≈ P(a − 0.5 ≤ X ≤ a + 0.5) P(a ≤ X ≤ b) ≈ P(a − 0.5 ≤ X ≤ b + 0.5)
  • 23. Exemple: Es llança una moneda perfecta a l’aire 100 vegades i ens pregunten, quina és la probabilitat d’obtenir entre 35 i 60 cares en els 100 llançaments? Fem primer el càlcul aplicant la distribució binomial (resultat exacte): P(35 ≤ X ≤ 60) = P60 x=35 100 x (1 2 )x (1 2 )n−x =(minitab)=0.981504 Aproximem a una distribució normal: N(µ = np, σ = p np(1 − p)) = N(µ = 50, σ = 5) P(35 ≤ X ≤ 60) = P(35 − 0.5 ≤ X ≤ 60 + 0.5) = P(34.5 ≤ X ≤ 60.5) = P(34.5−50 5 ≤ X−50 5 ≤ 60.5−50 5 ) = P(−3.1 ≤ Z ≤ 2.1) = P(Z ≤ 2.1) − P(Z ≤ −3.1) = (taules) = 0.9821 − 0.0010 = 0.9811 Observem que la diferència entre els dos resultats no és massa gran.
  • 24. Aproximació de la Poisson amb la Normal Sigui X una VA amb distribució Poisson(λ) amb funció de massa de probabilitat: f(x) = P(X = x) = e−λ λx x! Si λ és suficientment gran (λ 5) aleshores es pot aproximar per una distribució normal d’esperança λ i variància λ, de manera que la variable tipificada: Z = X−λ √ λ Correcció de continuïtat de Yates Per utilitzar correctament aquesta aproximació que transforma una VA discreta X en una VA contínua Z es necessari fer una correcció de continuïtat: Com X pren valor enters 0,1,2,3,...,a,...,b,... aleshores: P(X = a) ≈ P(a − 0.5 ≤ X ≤ a + 0.5) P(a ≤ X ≤ b) ≈ P(a − 0.5 ≤ X ≤ b + 0.5) Donada X ∼ Poisson(125).CalculeuP(X ≥ 100). P(X ≥ 100) = 1 − P(X ≤ 99) = 1 − P99 k=0 e−125 125k K! = 1 − 0.0094 = 0.9906 P(X ≥ 100) = 1 − P(X ≤ 99) = 1 − P(X ≤ 99 + 0.5) = 1 − P(X ≤ 99.5) = 1 − P(Z ≤ 99.5−125 √ 125 ) = 1 − P(Z ≤ −2.28) = 1 − 0.0113 = 0.9887
  • 25. Teorema Central del Límit Suposem X1,X2,... VA independents amb: E(Xi ) = µi V(Xi ) = σ2 i , i = 1, 2, ... Per a cada n ≥ 1 construim la variable Sn: Sn = Pn i=1 Xi E(Sn) = Pn i=1 µi V(Sn) = Pn i=1 σ2 i Teorema Central del Límit Encara que les VA Xi no siguin necessàriament normals, per a n gran Sn és aproximadament normal amb esperança E(Sn) = Pn i=1 µi i variància V(Sn) = Pn i=1 σ2 i , és a dir: Sn = N Pn i=1 µi , p ( Pn i=1 σ2 i ) Sn− Pn i=1 µi √Pn i=1 σ2 i ≈ N(0, 1) Cas particular per la mitjana Si X1,X2,...,Xn és una mostra aleatòria dúna variable X amb qualsevol distribució (fins i tot desconeguda), amb mitjana µ i desviació típica σ. Aleshores, si n és prou gran: X ≈ N µ, σ √ n