Your SlideShare is downloading. ×
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Pe
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Pe

142

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
142
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
11
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Notas de apoio da disciplina de Probabilidades e Estat´ ıstica (Licenciaturas e Mestrados Integrados em Engenharia) Manuel Cabral Morais Lisboa, 11 de Setembro de 2010
  • 2. ´ Indice 1 Nota introdut´ria o 1.1 Enquadramento da disciplina de Probabilidades e Estat´ ıstica nas licenciaturas e mestrados integrados em Engenharia . . . . . . . . . . . . . 1.2 Objectivos operacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 No¸˜es b´sicas de probabilidade co a 2.1 Experiˆncias aleat´rias. Espa¸o de resultados. Acontecimentos. . . . . . e o c 2.2 No¸ao de probabilidade. c˜ Interpreta¸oes de Laplace, frequencista e c˜ subjectivista. Axiomas e teoremas decorrentes. . . . . . . . . . . . . . . . 2.3 Probabilidade condicionada. . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Leis das probabilidades compostas e da probabilidade total. Teorema de Bayes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Acontecimentos independentes. . . . . . . . . . . . . . . . . . . . . . . . 8 9 3 Vari´veis aleat´rias e distribui¸˜es discretas a o co 3.1 Vari´veis aleat´rias discretas. . . . . . . . . . . . . . . . . a o 3.2 Fun¸ao de probabilidade. . . . . . . . . . . . . . . . . . . . c˜ 3.3 Fun¸ao de distribui¸ao. . . . . . . . . . . . . . . . . . . . . c˜ c˜ 3.4 Valor esperado, variˆncia e algumas das suas propriedades. a 3.5 Distribui¸ao uniforme discreta. . . . . . . . . . . . . . . . . c˜ 3.6 Distribui¸ao binomial. . . . . . . . . . . . . . . . . . . . . c˜ 3.7 Distribui¸ao geom´trica. . . . . . . . . . . . . . . . . . . . c˜ e 3.8 Distribui¸ao hipergeom´trica. . . . . . . . . . . . . . . . . c˜ e 3.9 Distribui¸ao de Poisson. . . . . . . . . . . . . . . . . . . . c˜ 3.10 Algumas notas sobre an´lise combinat´ria . . . . . . . . . a o . 1 3 . 14 . 22 . 25 . 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . Moda e quantis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 36 38 40 45 58 62 67 70 73 76 4 Vari´veis aleat´rias e distribui¸˜es cont´ a o co ınuas 77 4.1 Vari´veis aleat´rias cont´ a o ınuas. . . . . . . . . . . . . . . . . . . . . . . . . . 77 2
  • 3. 4.2 4.3 4.4 4.5 4.6 4.7 Fun¸ao de densidade de probabilidade. . . . c˜ Fun¸ao de distribui¸ao. . . . . . . . . . . . . c˜ c˜ Valor esperado, variˆncia e algumas das suas a Distribui¸ao uniforme cont´ c˜ ınua. . . . . . . . Distribui¸ao normal. . . . . . . . . . . . . . c˜ Distribui¸ao exponencial. . . . . . . . . . . . c˜ . . . . . . . . . . . . . . . . propriedades. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 . . . . . . . . . 80 Moda e quantis. 85 . . . . . . . . . 90 . . . . . . . . . 94 . . . . . . . . . 102 5 Distribui¸˜es conjuntas de probabilidade e complementos co 108 5.1 Duas vari´veis aleat´rias discretas. Distribui¸oes conjuntas, marginais e a o c˜ condicionais. Independˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . 110 e 5.2 Duas vari´veis aleat´rias cont´ a o ınuas. Distribui¸oes conjuntas, marginais e c˜ condicionais. Independˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . 126 e 5.3 Covariˆncia e correla¸ao. Propriedades. . . . . . . . . . . . . . . . . . . . . 135 a c˜ 5.4 Combina¸˜es lineares de vari´veis aleat´rias. . . . . . . . . . . . . . . . . . 145 co a o 5.5 Desigualdade de Chebychev. . . . . . . . . . . . . . . . . . . . . . . . . . . 153 5.6 Teorema do Limite Central. Aplica¸oes `s distribui¸oes binomial e de Poisson.155 c˜ a c˜ 6 Estima¸˜o pontual ca 6.1 Inferˆncia Estat´ e ıstica. Amostragem aleat´ria. o 6.2 Estimadores e suas propriedades. . . . . . . . 6.3 M´todo da m´xima verosimilhan¸a. . . . . . . e a c 6.4 Distribui¸oes amostrais. . . . . . . . . . . . . c˜ 6.5 Distribui¸oes amostrais de m´dias. . . . . . . c˜ e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Estima¸˜o por intervalos ca 7.1 No¸oes b´sicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . c˜ a 7.2 Intervalos de confian¸a para o valor esperado, variˆncia conhecida. . . . . c a 7.3 Intervalos de confian¸a para a diferen¸a de dois valores esperados, c c variˆncias conhecidas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 7.4 Intervalos de confian¸a para o valor esperado, variˆncia desconhecida. . . c a 7.5 Intervalos de confian¸a para a diferen¸a de dois valores esperados, c c variˆncias desconhecidas. . . . . . . . . . . . . . . . . . . . . . . . . . . . a 7.6 Intervalo de confian¸a para a variˆncia de uma popula¸˜o normal. . . . . c a ca 7.7 Intervalos de confian¸a para parˆmetros de popula¸oes n˜o normais c a c˜ a uniparam´tricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 3 171 . 171 . 178 . 187 . 198 . 202 204 . 204 . 209 . 216 . 223 . 232 . 239 . 242
  • 4. 8 Testes de hip´teses o 249 8.1 No¸oes b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 c˜ a 8.2 Testes de hip´teses para o valor esperado, variˆncia conhecida. . . . . . . . 259 o a 8.3 Testes de hip´teses sobre a igualdade de dois valores esperados, variˆncias o a conhecidas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 8.4 Fun¸ao potˆncia de um teste . . . . . . . . . . . . . . . . . . . . . . . . . . 267 c˜ e 8.5 Testes de hip´teses para o valor esperado, variˆncia desconhecida. . . . . . 270 o a 8.6 Um m´todo alternativo de decis˜o em testes de hip´teses: c´lculo do p-value276 e a o a 8.7 Testes de hip´teses sobre a igualdade de valores esperados de duas o popula¸oes, variˆncias desconhecidas. . . . . . . . . . . . . . . . . . . . . . 280 c˜ a 8.8 Testes de hip´teses para a variˆncia de uma popula¸ao normal. . . . . . . . 285 o a c˜ 8.9 Outro m´todo alternativo de decis˜o em testes de hip´teses: rela¸ao entre e a o c˜ intervalos de confian¸a e testes bilaterais. . . . . . . . . . . . . . . . . . . . 287 c 8.10 Testes de hip´teses para parˆmetros de popula¸˜es n˜o normais o a co a uniparam´tricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 e 8.11 Teste de ajustamento do qui-quadrado de Pearson. . . . . . . . . . . . . . 292 8.11.1 Ajustamento de uma distribui¸˜o discreta . . . . . . . . . . . . . . 294 ca 8.11.2 Ajustamento de uma fam´ de distribui¸˜es discretas . . . . . . . . 299 ılia co 8.11.3 Agrupamento de classes . . . . . . . . . . . . . . . . . . . . . . . . 301 8.11.4 Dados cont´ ınuos — hip´tese simples/composta . . . . . . . . . . . . 304 o 8.11.5 Classes equiprov´veis e dados cont´ a ınuos . . . . . . . . . . . . . . . . 307 8.12 Teste de independˆncia do qui-quadrado de Pearson em tabelas de e contingˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 e 9 Introdu¸˜o ` regress˜o linear simples ca a a 9.1 Modelos de regress˜o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 9.2 M´todos dos m´ e ınimos quadrados e da m´xima verosimilhan¸a em regress˜o a c a linear simples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1 Estima¸˜o de β0 e β1 — m´todo dos m´ ca e ınimos quadrados . . . . . 9.2.2 Estima¸˜o de β0 e β1 — m´todo da MV . . . . . . . . . . . . . . ca e 9.2.3 Recta de regress˜o . . . . . . . . . . . . . . . . . . . . . . . . . . a 9.3 Propriedades dos estimadores dos m´ ınimos quadrados e estima¸˜o da ca variˆncia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 9.4 Alguns abusos do modelo de regress˜o. . . . . . . . . . . . . . . . . . . . a 9.5 Intervalos de confian¸a para β0 , β1 e para o valor esperado da resposta. . c 9.6 Testes de hip´teses sobre β0 , β1 e o valor esperado da resposta. . . . . . . o 4 316 . 316 . . . . 318 320 324 326 . . . . 328 330 333 338
  • 5. 9.7 Coeficiente de determina¸ao e an´lise de res´ c˜ a ıduos na avalia¸˜o do modelo . 345 ca Referˆncias e formul´rio e a 354 i
  • 6. Cap´ ıtulo 1 Nota introdut´ria o 1.1 Enquadramento da disciplina de Probabilidades e Estat´ ıstica nas licenciaturas e mestrados integrados em Engenharia A importˆncia da disciplina de Probabilidades e Estat´stica na forma¸ao de alunas/os a ı c˜ de Engenharia do IST ´ ineg´vel. Basta pensar que, no seu plano curricular, elas/es e a estudar˜o fen´menos de natureza aleat´ria e ter˜o que avaliar o desempenho de sistemas a o o a regidos por leis n˜o determin´ a ısticas. N˜o surpreende pois que se trate de uma disciplina a de n´ b´sico e obrigat´ria nas licenciaturas em Engenharia do IST h´ v´rias d´cadas ıvel a o a a e e que ela tenha sobrevivido ao Processo de Bolonha, constando da lista de disciplinas estruturantes de Matem´tica de todas as licenciaturas e mestrados integrados do IST. a Ao presumir que os programas das disciplinas de Matem´tica do Ensino Secund´rio s˜o a a a cumpridos, a disciplina de Probabilidades e Estat´stica proporciona aquele que ´ segundo ı e contacto com esta area. ´ A disciplina de Probabilidades e Estat´stica tem car´cter semestral e ´ introduzida ı a e no plano curricular no primeiro ou no segundo semestre do segundo ano lectivo. Esta introdu¸ao aparentemente tardia da disciplina no plano curricular das licenciaturas e c˜ mestrados integrados em Engenharia do IST encontra justifica¸ao no facto de o conte´do c˜ u program´tico da disciplina exigir que as/os alunas/os que a frequentam possuam alguma a forma¸ao em C´lculo Diferencial e Integral, em particular, que estejam familiarizadas/os c˜ a com: • sucess˜es, fun¸oes reais de vari´vel real, diferenciabilidade, primitiva¸ao, c´lculo o c˜ a c˜ a integral em I , f´rmulas de integra¸ao por partes e por substitui¸ao, fun¸oes R o c˜ c˜ c˜ 1
  • 7. transcendentes elementares, s´ries num´ricas; e e • diferenciabilidade, derivadas parciais, estudo de extremos, integrais duplos. Com efeito estabelece-se como desej´vel que as/os alunas/os tenham obtido aprova¸˜o `s a ca a disciplinas de C´lculo Diferencial e Integral I e II de cujos programas se plasmaram os a dois blocos de t´picos listados acima.1 o Posto isto, o facto de a disciplina poder ser introduzida no primeiro semestre do segundo ano de algumas licenciaturas e de as/os alunas/os poderem ainda n˜o ter obtido a aprova¸ao a disciplina de C´lculo Diferencial e Integral II requer alguns cuidados especiais c˜ ` a na lecciona¸ao de alguns t´picos, nomeadamente pares aleat´rios cont´ c˜ o o ınuos. Importa referir que a disciplina de Probabilidades e Estat´stica ´ a primeira e ultima ı e ´ disciplina da ´rea leccionada pela Sec¸˜o de Probabilidades e Estat´ a ca ıstica em licenciaturas e mestrados integrados em Engenharia do IST, salvo rar´ ıssimas excep¸˜es. co Realce-se que a disciplina de Probabilidades e Estat´stica e os conceitos nela ı apreendidos abrem, no entanto, as portas a outras disciplinas que surgem posteriormente no plano curricular das licenciaturas e mestrados integrados do IST e que podem ter car´cter complementar na ´rea de Probabilidades e Estat´ a a ıstica ou estarem directamente ligadas a aplica¸oes espec´ c˜ ıficas em Engenharia. A t´ ıtulo meramente exemplificativo ocorre nomear • uma disciplina cujo programa assenta em ´rea de An´lise Multivariada, a a • outras duas mais especializadas e de cujos programas constam cadeias de Markov e simula¸˜o estoc´stica e de Monte Carlo, num dos casos, processos estoc´sticos, ca a a probabilidades de erro e canais gaussianos, noutro caso. S˜o elas as disciplinas de: a • An´lise de Dados e Avalia¸˜o da area de especializa¸ao em Transportes, Sistemas e a ca ´ c˜ Infra-Estruturas do Mestrado Integrado em Engenharia Civil (5o. ano, 1o. semestre); • Modela¸˜o e Simula¸˜o e Fundamentos de Telecomunica¸˜es, ambas do Mestrado ca ca co Integrado em Eng. Electrot´cnica e de Computadores (3o. ano, 2o. semestre). e 1 Estes t´picos s˜o aqui mencionados pela ordem em surgem naqueles programas e n˜o pela ordem em o a a que s˜o necess´rios na disciplina de Probabilidades e Estat´ a a ıstica. 2
  • 8. 1.2 Objectivos operacionais A disciplina de Probabilidades e Estat´stica tem por objectivo a inicia¸˜o ao estudo da ı ca teoria das probabilidades e inferˆncia estat´stica, tendo em vista a compreens˜o e aplica¸˜o e ı a ca 2 dos seus principais conceitos e m´todos. e Ap´s a aprova¸˜o a disciplina as/os alunas/os devem ser capazes de: o ca ` • identificar eventos e calcular as respectivas probabilidades por recurso a resultados como as leis da probabilidade composta e da probabilidade total e o teorema de Bayes; averiguar a (in)dependˆncia de eventos; e • destrin¸ar as vari´veis aleat´rias das cont´ c a o ınuas; identificar as diversas distribui¸oes c˜ discretas e cont´ ınuas e as circunstˆncias em que devem ser usadas; calcular a probabilidades de eventos e momentos que lhes digam respeito; averiguar a (in)dependˆncia de vari´veis aleat´rias e avaliar a associa¸ao entre elas; e a o c˜ • identificar as distribui¸oes exactas ou aproximadas de combina¸˜es lineares de c˜ co vari´veis aleat´rias, tirando partido das propriedades de fecho de algumas fam´ a o ılias de distribui¸oes e do teorema do limite central; c˜ • obter estimadores de parˆmetros desconhecidos pelo m´todo da m´xima a e a verosimilhan¸a e avaliar as suas propriedades; obter uma vari´vel fulcral para um c a parˆmetro desconhecido, como o valor esperado, e a partir dela uma estat´ a ıstica de teste sobre esse mesmo parˆmetro nos mais variados contextos distribucionais; a • construir um intervalo de confian¸a e efectuar testes de hip´teses sobre um c o parˆmetro desconhecido em diversas situa¸oes distribuicionais; averiguar a a c˜ adequa¸ao de uma distribui¸˜o ou de uma fam´ de distribui¸oes a um conjunto c˜ ca ılia c˜ de dados; efectuar testes de hip´teses, recorrendo ao procedimento geral ou, em o alternativa, por recurso ao p-value; • estimar os diversos parˆmetros desconhecidos do modelo de regress˜o linear simples; a a obter intervalos de confian¸a e efectuar testes de hip´teses sobre tais parˆmetros; c o a avaliar a qualidade do ajustamento da recta de regress˜o ao conjunto de dados. a De modo a atingir plenamente estes objectivos operacionais parece-nos essencial que a estrutura de apresenta¸˜o dos cap´ ca ıtulos destas notas de apoio respeite a filosofia aprender 2 Ver, por exemplo, o link da disciplina de Probabilidades e Estat´ ıstica no plano curricular do Mestrado integrado em Eng. Electrot´cnica e de Computadores. e 3
  • 9. por exemplos e fazendo. Assim, a mat´ria ´ motivada, os resultados s˜o enunciados, e e a raramente demonstrados mas sempre ilustrados com exemplos ou exerc´ ıcios trabalhados em conjunto com as/os alunas/os, como os que se seguem. Exemplo 1.1 — Eventos e probabilidades Um sistema de comunica¸ao bin´ria transmite “zeros” e “uns” com probabilidade 0.5 c˜ a em qualquer dos casos. Devido ao ru´ existente no canal de comunica¸ao h´ erros na ıdo c˜ a recep¸ao: transmitido um “um” ele pode ser recebido como um “zero” com probabilidade c˜ 0.1, ao passo que um “zero” pode ser recebido como um “um” com probabilidade 0.05. Determine a probabilidade de se receber um “zero”. • Quadro de eventos e probabilidades Evento Probabilidade T Z = transmitir um “zero” P (T Z) = 0.5 T Z = transmitir um “um” P (T Z) = 0.5 RZ = receber um “zero” P (RZ) =? RZ|T Z = receber um “zero” dado que foi transmitido um “um” P (RZ|T Z) = 0.1 RZ|T Z = receber um “um” dado que foi transmitido um “zero” P (RZ|T Z) = 0.05 • Prob. pedida Aplicando o teorema da probabilidade total, tem-se P (RZ) = P (RZ|T Z) × P (T Z) + P (RZ|T Z) × P (T Z) = [1 − P (RZ|T Z)] × P (T Z) + P (RZ|T Z)P (T Z) = (1 − 0.05) × 0.5 + 0.1 × 0.5 = 0.525. • 4
  • 10. Exemplo 1.2 — Duas vari´veis aleat´rias discretas a o Um computador possui um n´mero elevado de componentes de um mesmo tipo que falham u de modo independente. O n´mero de componentes desse tipo que falham por mˆs ´ uma u e e vari´vel aleat´ria com distribui¸˜o de Poisson com variˆncia igual a um. Admita que o a o ca a computador s´ falha se pelo menos doze dessas componentes falharem. o Calcule a probabilidade de o computador n˜o ter falhado ao fim de um ano. a • Vari´vel aleat´ria a o X1 = n´mero de componentes que falham em um mˆs u e • Distribui¸˜o de X1 ca X1 ∼ Poisson(λ) • Parˆmetro a λ : V (X) = 1 λ=1 • Nova vari´vel aleat´ria a o X12 = n´mero de componentes que falham num ano (12 meses) u • Distribui¸˜o de X12 ca Tirando partido do facto de as componentes falharem de modo independente e recorrendo a propriedade reprodutiva da distribui¸ao de Poisson, pode concluir-se ` c˜ que: X12 ∼ Poisson(λ12 = 12 × λ = 12) • Fun¸˜o de probabilidade de X12 ca P (X12 = x) = e−12 12x , x = 0, 1, 2, . . . x! • Probabilidade pedida P (comp. n˜o falhar num ano) a = P (X12 ≤ 11) = FP oisson(12) (11) tabela 5 0.4616.
  • 11. Exemplo 1.3 — Duas vari´veis aleat´rias cont´ a o ınuas 3 A resistˆncia el´ctrica (X) de um objecto e a sua condutˆncia el´ctrica4 (Y ) est˜o e e a e a −1 relacionadas do seguinte modo: Y = X . Assuma que 0,    P (X ≤ x) =     1, x−900 , 200 x < 900 900 ≤ x ≤ 1100 x > 1100 e determine a probabilidade de a condutˆncia el´ctrica exceder 10−3 mho. a e • Vari´vel aleat´ria a o X = resistˆncia el´ctrica e e • Nova vari´vel aleat´ria a o Y = X −1 = condutˆncia el´ctrica a e • Probabilidade pedida 1 > 10−3 X = P X < 103 1000 − 900 = 200 1 = . 2 P (Y > 10−3 mho) = P • Importa fazer um reparo sobre a resolu¸˜o dos exemplos/exerc´ ca ıcios das notas de apoio. Ela ´ apresentada em pequenas sec¸˜es com cabe¸alho logo tem um car´cter e co c a aparentemente repetitivo que se tem revelado, por sinal, util para que as/os alunas/os ´ aprendam a estruturar devidamente a resolu¸˜o de qualquer exerc´ ca ıcio da disciplina de Probabilidades e Estat´stica. ı 3 A resistˆncia el´ctrica ´ a capacidade de um corpo qualquer se opor ` passagem de corrente el´trica e e e a e pelo mesmo; de acordo com o Sistema Internacional de Unidades (SI), a resistˆncia el´ctrica ´ medida e e e em ohm (http://pt.wikipedia.org/wiki/Resistˆncia el´trica). e e 4 A condutˆncia el´ctrica mede a facilidade com que a corrente el´ctrica flui atrav´s de uma componente a e e e el´ctrica, logo trata-se do rec´ e ıproco da resistˆncia el´ctrica; de acordo com o SI, a condutˆncia el´ctrica e e a e ´ medida em siemens ou mho (http://pt.wikipedia.org/wiki/Condutˆncia el´trica). e a e 6
  • 12. Estas notas de apoio constituem tamb´m um manual para a/o aluna/o desejosa/o e de um r´pido progresso na aprendizagem de Probabilidades e Estat´stica e disposta/o a a ı estudar sozinha/o e capaz de combinar o material que aqui encontra com outro proveniente de fontes t˜o importantes como o livro de texto recomendado para a disciplina. a Expresso desde j´ os meus agradecimentos `s/aos minhas/meus v´rias/os colegas da a a a Sec¸ao de Probabilidades e Estat´ c˜ ıstica do Departamento de Matem´tica do Instituto a Superior T´cnico que leccionaram a disciplina de Probabilidades e Estat´stica (das e ı licenciaturas e mestrados integrados em Engenharia) e da ent˜o disciplina de Estat´ a ıstica (da licenciatura em Matem´tica Aplicada e Computa¸˜o), por terem directa ou a ca indirectamente contribu´ para estas notas de apoio. ıdo Os erros e imprecis˜es eventualmente existentes nestas notas s˜o, naturalmente, o a aleat´rios — muitas das vezes fruto de opera¸oes de copy/paste — e da inteira o c˜ responsabilidade do autor, que muito agradece que eles lhe sejam comunicados por email para maj@math.ist.utl.pt. Boa leitura e bom trabalho. Manuel Cabral Morais Lisboa, 11 de Setembro de 2010 7
  • 13. Cap´ ıtulo 2 No¸˜es b´sicas de probabilidade co a Palavras como • prov´vel (provavelmente) a • probabilidade • acaso • sorte pertencem ao vocabul´rio corrente e s˜o utilizadas com extrema frequˆncia por todos, a a e em parte por termos a convic¸ao de que a natureza ´ mut´vel e incerta, de que o futuro c˜ e a encerra em si in´meras possibilidades e de que o acaso governa o mundo. u Na formaliza¸˜o matem´tica actual, a probabilidade ´ um termo medindo o grau de ca a e possibilidade ou de credibilidade de ocorrˆncia de um acontecimento. e 8
  • 14. 2.1 Experiˆncias aleat´rias. e o Espa¸o de resultados. c Acontecimentos. A formaliza¸ao moderna de Probabilidade assenta nas noc˜es de c˜ o • experiˆncia aleat´ria e seus poss´ e o ıveis resultados e de • acontecimento. Defini¸˜o 2.1 — Experiˆncia aleat´ria (E.A.) ca e o Experiˆncia cujo resultado exacto n˜o pode ser predito antes da realiza¸˜o da mesma e a ca devido ` interven¸˜o do acaso. a ca • Nota 2.2 — Experiˆncia aleat´ria e o No caso de a experiˆncia aleat´ria poder ser repetida um grande n´mero de vezes, e o u em condi¸˜es mais ou menos semelhantes, os resultados globais apresentam certa co “regularidade estat´ ıstica”... • Exemplo 2.3 — Experiˆncias aleat´rias e o Designa¸˜o ca E1 Experiˆncia aleat´ria e o Registo do n´mero de viaturas que atingem os 100Km/h em menos u de 6 segundos, em 7 viaturas testadas E2 Contagem do n´mero anual de acidentes de autom´vel na A1 u o E3 Medi¸˜o da resistˆncia de uma mola da suspens˜o de uma viatura ca e a • Defini¸˜o 2.4 — Espa¸o de resultados ca c ´ Conjunto de todos os resultados poss´ ıveis de uma E.A. E conhecido antes de a E.A. se realizar e ´ usualmente representado pela letra grega Ω. e • Nota 2.5 — Espa¸o de resultados c Ω diz-se: • discreto — caso #Ω seja finito ou infinito numer´vel; a • cont´ ınuo — se #Ω for infinito n˜o numer´vel. a a 9 •
  • 15. Exemplo 2.6 — Espa¸os de resultados c Na tabela seguinte figuram os espa¸os de resultados das trˆs e.a. apresentadas no Exemplo c e 2.3: E.A. Espa¸o de resultados (Ω) c Classifica¸˜o de Ω ca E1 {0, 1, 2, 3, 4, 5, 6, 7} Discreto (finito) E2 {0, 1, 2, . . .} Discreto (infinito numer´vel) a E3 I + R Cont´ ınuo (infinito n˜o numer´vel) a a • Defini¸˜o 2.7 — Evento (acontecimento) ca Designa¸ao dada a qualquer subconjunto do espa¸o de resultados. c˜ c • Nota 2.8 — Evento Em rela¸˜o a uma dada E.A. diz-se que o evento A ocorreu sse o resultado da E.A. ca pertencer a A. • Exemplo 2.9 — Eventos De seguida apresentam-se alguns eventos associados as trˆs e.a. descritas no Exemplo 2.3: ` e E.A. E1 Evento A = nenhuma das 7 viaturas testadas atingiu os 100Km/h em menos de 6 segundos = {0} B = pelo menos 4 das 7 viaturas testadas atingiu os 100Km/h em menos de 6 segundos = {4, 5, 6, 7} E2 C = registo de mais de 5 acidentes anuais na A1 = {6, 7, . . .} E3 D = resistˆncia superior a 8 unidades e = (8, +∞) • 10
  • 16. Nota 2.10 — Classifica¸˜o de eventos ca O evento A diz-se: • elementar — quando constitu´ por um unico elemento de Ω, i.e., #A = 1; ıdo ´ • certo — se A = Ω; • imposs´ — caso A = ∅. ıvel • Defini¸˜o 2.11 — Eventos disjuntos ca Os eventos A e B dizem-se disjuntos (ou mutuamente exclusivos, ou incompat´ ıveis) sse A ∩ B = ∅, (2.1) i.e., se a realiza¸ao simultˆnea de A e B for imposs´ c˜ a ıvel. • Defini¸˜o 2.12 — Inclus˜o de eventos ca a Quando o evento A est´ contido (incluso) em B — A ⊂ B — verifica-se: a Realiza¸ao de A ⇒ Realiza¸ao de B c˜ c˜ (2.2) Realiza¸ao de A ⇐ Realiza¸ao de B, c˜ c˜ (2.3) i.e., a realiza¸˜o de A implica a de B mas a implica¸ao no sentido contr´rio n˜o ´ ca c˜ a a e necessariamente verdadeira. • Uma vez que os eventos n˜o passam de (sub)conjuntos ´ poss´ a e ıvel efectuar opera¸˜es sobre eventos j´ nossas conhecidas como s˜o o caso da intersec¸ao, da co a a c˜ reuni˜o, etc. Descreveremos o seu significado em termos de realiza¸oes de eventos quer a c˜ verbalmente, quer a custa de um diagrama de Venn. ` Sejam • Ω o espa¸o de resultados de uma E.A. e c • A e B dois eventos. Ent˜o podemos efectuar as seguintes opera¸oes sobre A e B: a c˜ 11
  • 17. Opera¸˜o ca Nota¸˜o ca Descri¸˜o verbal ca Intersec¸˜o ca A∩B Realiza¸˜o simultˆnea de A e de B ca a Reuni˜o a A∪B Realiza¸˜o de A ou de B, i.e., ca de pelo menos um dos dois eventos Diferen¸a c BA Realiza¸˜o de B sem que se realize A ca (B excepto A) AB Realiza¸˜o de A sem que se realize B ca (A excepto B) Complementar A N˜o realiza¸˜o de A a ca 12 Diagrama de Venn
  • 18. As opera¸oes sobre eventos gozam de propriedades bem conhecidas como a c˜ associatividade, comutatividade, etc., que conv´m recordar: e Propriedade Descri¸˜o matem´tica ca a Associatividade (A ∩ B) ∩ C = A ∩ (B ∩ C) (A ∪ B) ∪ C = A ∪ (B ∪ C) Comutatividade A∩B =B∩A A∪B =B∪A Distributividade (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C) (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) Idempotˆncia e A∩A=A A∪A=A Absor¸˜o ca A⊂B ⇒A∩B =A A⊂B ⇒A∪B =B Modulares A∩Ω=A A∪Ω=Ω A∩∅=∅ A∪∅=A Leis de De Morgan A∩B =A∪B A∪B =A∩B Dupla nega¸˜o ca A=A 13
  • 19. 2.2 No¸˜o de probabilidade. ca Interpreta¸˜es de co Laplace, frequencista e subjectivista. Axiomas e teoremas decorrentes. A probabilidade ´ um conceito extraordinariamente complexo e, como teremos ocasi˜o e a de ver daqui a pouco, somos capazes de adiantar algumas no¸oes de probabilidade que se c˜ revelar˜o insatisfat´rias devido a limita¸˜es a elas subjacentes. a o co Defini¸˜o 2.13 — Probabilidade cl´ssica de Laplace ca a Considere-se uma E.A. com espa¸o de resultados Ω com as seguintes particularidades: Ω c ´ constitu´ por e ıdo • n eventos elementares (#Ω = n) • distintos • igualmente prov´veis1 e em a • n´mero finito. u Considere-se ainda que a realiza¸˜o do evento A passa pela ocorrˆncia de m dos n eventos ca e elementares, i.e., #A = m. Ent˜o a probabilidade de realiza¸˜o de A ´ dada por: a ca e n´mero de casos favor´veis ` ocorrˆncia de A u a a e n´mero de casos poss´ u ıveis #A = #Ω m = . n P (A) = (2.4) • Nota 2.14 — Limita¸oes da probabilidade cl´ssica de Laplace c˜ a Esta defini¸ao s´ ´ v´lida quando c˜ o e a • #Ω < +∞ (ou seja, o n´mero de eventos elementares ´ finito) e u e • Ω ´ constitu´ por eventos elementares igualmente prov´veis, e ıdo a pressupostos estes frequentemente violados na pr´tica. a 1 Nada leva a crer que a ocorrˆncia de algum dos eventos ´ privilegiada em rela¸˜o ` dos restantes. e e ca a 14 •
  • 20. Exemplo 2.15 — Probabilidade cl´ssica de Laplace a Admita que num stand se encontram 353 viaturas de somente duas marcas (A e B). Destas: • 201 s˜o da marca A; a • 57 possuem direc¸ao assistida; c˜ • 37 s˜o da marca A e possuem direc¸ao assistida. a c˜ Calcule a probabilidade de uma viatura seleccionada ao acaso ser da marca A. • Evento A = viatura seleccionada ao acaso ser da marca A • No. casos favor´veis a m = 201 • No. casos poss´ ıveis n = 353 • Probabilidade pedida P (A) = 201 m = . n 353 • Antes de passarmos a uma outra no¸ao de probabilidade ´ conveniente adiantarmos a c˜ e defini¸ao de frequˆncia relativa de um evento bem como as propriedades alg´bricas dessa c˜ e e mesma frequˆncia. e Defini¸˜o 2.16 — Frequˆncia relativa ca e Sejam: • N o n´mero de realiza¸oes (nas mesmas condi¸oes) de certa E.A.; u c˜ c˜ • nN (A) o n´mero de vezes que o evento A ocorreu nas N realiza¸oes da E.A. (i.e., u c˜ representa a frequˆncia absoluta do evento A). e Ent˜o a frequˆncia relativa do evento A ´ dada por a e e fN (A) = nN (A) . N (2.5) • 15
  • 21. Nota 2.17 — Propriedades alg´bricas e A frequˆncia relativa satisfaz as seguintes propriedades: e • 0 ≤ fN (A) ≤ 1; • fN (Ω) = 1; • fN (A ∪ B) = fN (A) + fN (B), se A ∩ B = ∅; • fN (A) estabiliza a medida que N aumenta. ` • N˜o surpreende pois a seguinte no¸ao de probabilidade. a c˜ Defini¸˜o 2.18 — Probabilidade frequencista ca A probabilidade do evento A ´ igual ao limite da frequˆncia relativa da ocorrˆncia do e e e evento A: nN (A) = lim fN (A). N →+∞ N →+∞ N P (A) = lim (2.6) • Exemplo 2.19 — Probabilidade frequencista Foram registados os resultados respeitantes a um total de 100 lan¸amentos de uma moeda c equilibrada. Assim, nas colunas da tabela abaixo podem encontrar-se • o n´mero do lan¸amento (N ), u c • o resultado do N −´simo lan¸amento (0 = coroa, 1 = cara) e e c • a frequˆncia relativa do evento A = sair cara at´ ao N −´simo lan¸amento (fN (A)), e e e c respectivamente. N (0=coroa, 1=cara) fN (A) ··· N (0=coroa, 1=cara) fN (A) 1 1 ··· 91 1 2 0 ··· 92 1 3 1 1 1 1 2 2 3 ··· 93 0 46 91 47 92 47 93 ··· ··· ··· ··· ··· ··· ··· 10 1 2 5 ··· 100 0 49 100 16
  • 22. A esta tabela segue-se o correspondente gr´fico da frequˆncia relativa fN (A) (` a e a esquerda) e o deste e de outros dois conjuntos de 100 lan¸amentos (` direita). Em ambos c a ´ evidente a estabiliza¸˜o da frequˆncia relativa em torno de 0.5 a medida que o n´mero e ca e ` u total de lan¸amentos (N ) aumenta. c • Nota 2.20 — Limita¸oes da probabilidade frequencista c˜ Esta no¸ao de probabilidade n˜o ´ razo´vel caso a E.A. n˜o possa ser realizada mais do c˜ a e a a que uma vez ou quando ela ´ hipot´tica (por exemplo, uma ida a Marte). e e • Defini¸˜o 2.21 — Probabilidade subjectiva ca Uma pessoa pode atribuir a um evento um n´mero real no intervalo [0, 1] a que se dar´ u a o nome de probabilidade do evento e que expressa um grau de credibilidade pessoal na ocorrˆncia do evento. e • Exemplo 2.22 — Probabilidade subjectiva Ao perguntar-se qual a probabilidade de visitar-se o planeta Marte antes do ano 2030 obteve-se as seguintes respostas de duas pessoas: • funcion´rio da NASA → 0.5; a • taxista → 0. • Este exemplo leva a considerar uma outra no¸ao de probabilidade que dever´ ser c˜ a precedida pela apresenta¸˜o da no¸ao de σ−´lgebra de eventos. ca c˜ a 17
  • 23. Defini¸˜o 2.23 — σ−´lgebra de eventos ca a Trata-se de uma colec¸ao n˜o vazia de eventos (probabiliz´veis), A, que verifica as c˜ a a seguintes propriedades: 1. Ω ∈ A; 2. A ∈ A ⇒ A ∈ A; 3. +∞ i=1 Ai ∈ A para qualquer colec¸˜o cont´vel de eventos de A, seja ela ca a {A1 , A2 , . . .}. • Exemplo 2.24 — σ−´lgebra de eventos a • A1 = {∅, Ω}; • A2 = I (Ω) que representa as “partes de Ω”, i.e., a colec¸ao de todos os subconjuntos P c˜ de Ω. • Defini¸˜o 2.25 — Fun¸˜o de probabilidade (no sentido de Kolmogorov) ca ca Fun¸˜o que possui por dom´ ca ınio a σ−´lgebra de eventos e por contradom´ a ınio o intervalo [0, 1] — i.e., P : A → [0, 1] (2.7) — e com a particularidade de respeitar os seguintes... Axiomas 1. P (Ω) = 1. 2. 0 ≤ P (A) ≤ 1, ∀A ∈ A. 3. Seja {A1 , A2 , . . .} uma colec¸ao cont´vel de eventos mutuamente exclusivos de c˜ a A (i.e. Ai ∩ Aj = ∅, i = j). Ent˜o a +∞ P +∞ Ai = i=1 P (Ai ). (2.8) i=1 • 18
  • 24. Proposi¸˜o 2.26 — Consequˆncias elementares dos axiomas ca e Os axiomas n˜o nos ensinam a calcular probabilidades mas estabelecem regras para o seu a c´lculo — muito em particular algumas das suas seguintes consequˆncias elementares: a e 1. P (∅) = 0; 2. P (A) = 1 − P (A); 3. A ⊂ B ⇒ P (A) ≤ P (B); 4. P (BA) = P (B) − P (A ∩ B). • Exerc´ ıcio 2.27 — Demonstre as consequˆncias elementares dos axiomas. e Exemplo 2.28 — Consequˆncias elementares dos axiomas e Uma companhia de telecomunica¸˜es classifica as chamadas como sendo do tipo: co • V , caso haja transmiss˜o de voz; a • D, caso haja de dados (por modem ou fax). Com base em informa¸ao da companhia pode adiantar-se que: c˜ Evento Probabilidade V = transmiss˜o de voz a P (V ) = 0.7 D = transmiss˜o de dados a P (D) = 0.5 V ∩ D = transmiss˜o simultˆnea de voz e dados a a P (V ∩ D) = 0.2 (a) Calcule a probabilidade de a transmiss˜o n˜o ser de voz. a a • Evento V = transmiss˜o n˜o ser de voz a a • Probabilidade pedida P (V ) = 1 − P (V ) = 1 − 0.7 = 0.3. 19 •
  • 25. (b) Obtenha a probabilidade de haver exclusivamente transmiss˜o de voz. a • Evento V D = transmiss˜o exclusiva de voz a • Probabilidade pedida P (V D) = P (V ) − P (V ∩ D) = 0.7 − 0.2 = 0.5. • Nota 2.29 — Um evento pode ainda ser classificado de: • quase-certo — se P (A) = 1 no entanto A = Ω; • quase-imposs´ — caso P (A) = 0 mas A = ∅. ıvel Exerc´ ıcio 2.30 — Dˆ exemplos de eventos quase-certos e quase-imposs´ e ıveis. • • De seguida s˜o enunciados dois resultados que permitir˜o o c´lculo da probabilidade a a a da reuni˜o de dois e de trˆs eventos. a e Proposi¸˜o 2.31 — Reuni˜o de dois eventos ca a P (A ∪ B) = P (A) + P (B) − P (A ∩ B). (2.9) Demonstra¸ao: c˜ P (A ∪ B) = P [(AB) ∪ (A ∩ B) ∪ (BA)] = P (AB) + P (A ∩ B) + P (BA) = [P (A) − P (A ∩ B)] + P (A ∩ B) + [P (B) − P (A ∩ B)] = P (A) + P (B) − P (A ∩ B). (2.10) • Proposi¸˜o 2.32 — Reuni˜o de trˆs eventos ca a e P (A ∪ B ∪ C) = P (A) + P (B) + P (C) −P (A ∩ B) − P (A ∩ C) − P (B ∩ C) +P (A ∩ B ∩ C). (2.11) • Exerc´ ıcio 2.33 — Demonstre a regra de adi¸ao (2.11). c˜ 20 •
  • 26. Exemplo 2.34 — Regras de adi¸˜o ca Retome o Exemplo 2.15 respeitante ao stand com 353 viaturas. (a) Organize um quadro com os eventos j´ descritos e com as respectivas probabilidades. a • Quadro de eventos e probabilidades Evento Casos favor. Casos poss. Probabilidade A = viat. marca A 201 353 P (A) = D = viat. com dir. assist. 57 353 P (D) = A ∩ D = viat. marca A com dir. assist. 37 353 P (A ∩ D) = 201 353 57 353 37 353 (b) Obtenha a probabilidade de uma viatura seleccionado ao acaso ser da marca A ou possuir direc¸˜o assistida. ca • Evento A∪D • Probabilidade pedida P (A ∪ D) = P (A) + P (D) − P (A ∩ D) 57 37 201 + − = 353 353 353 221 = . 353 21 •
  • 27. 2.3 Probabilidade condicionada. Motiva¸˜o 2.35 — Probabilidade condicionada ca Suponha que dispomos de um baralho de 52 cartas (13 de cada naipe) do qual extra´ ımos uma carta ao acaso. (a) Qual a probabilidade de ter sa´ o rei de copas? 1/52 ıdo (b) Qual a probabilidade de ter sa´ o rei de copas sabendo ` partida que a carta ıdo a extra´ ´ uma carta de paus? 0 ıda e (c) E se soub´ssemos de antem˜o que a carta ´ de copas? 1/13 e a e • Nota 2.36 — Probabilidade condicionada Como pudemos ver, a probabilidade do evento sair o rei de copas foi sucessivamente avaliada a medida que nos foi adiantada informa¸˜o. ` ca • A quest˜o que se coloca naturalmente ´: de que forma a obten¸ao de informa¸˜o a e c˜ ca adicional (correspondente ` ocorrˆncia de eventos) pode vir a influenciar a c´lculo de a e a probabilidades? Defini¸˜o 2.37 — Probabilidade condicionada ca Sejam: • Ω o espa¸o de resultados; c • P a fun¸ao de probabilidade. c˜ Ent˜o a probabilidade do evento A condicionada pela ocorrˆncia do evento B ´ dada por a e e P (A|B) = P (A ∩ B) , P (B) (2.12) • desde que P (B) > 0. Nota 2.38 — Probabilidade condicionada Esta probabilidade tamb´m pode ler-se do seguinte modo probabilidade de A dado B ou e probabilidade de A sabendo que B ocorreu e representa uma reavalia¸ao da probabilidade c˜ de A face ao facto de B ter ocorrido. • 22
  • 28. Exemplo 2.39 — Probabilidade condicionada (cont.) Qual a probabilidade de a carta seleccionada ao acaso ser o rei de copas sabendo ` partida a que se trata de uma carta de copas? • Quadro de eventos e probabilidades Evento Probabilidade A = Sair o rei de copas P (A) = 1 52 B = Sair uma carta de copas P (B) = 13 52 • Evento A|B • Prob. pedida P (A ∩ B) P (B) P (A) = P (B) 1/52 = 13/52 1 . = 13 P (A|B) = (2.13) • Nota 2.40 — Probabilidade condicionada P (. . . |B) ´ uma fun¸ao de probabilidade (no sentido de Kolmogorov), como tal respeita e c˜ os trˆs axiomas seguintes: e 1. P (Ω|B) = 1. 2. 0 ≤ P (A|B) ≤ 1, ∀A ∈ A. 3. Seja {A1 , A2 , . . .} uma colec¸˜o cont´vel de eventos mutuamente exclusivos de A ca a (i.e. Ai ∩ Aj = ∅, i = j). Ent˜o a +∞ P +∞ Ai i=1 P (Ai |B). B = (2.14) i=1 Para al´m disso, verifica as consequˆncias elementares destes mesmos axiomas enunciadas e e na Proposi¸˜o 2.26. ca • 23
  • 29. Exemplo 2.41 — Um grupo de alunos do 1o. ano de Mecˆnica elaborou 100 programas. a Constatou-se que • 20% possuem erros de Sintaxe (S), • 30% possuem erros de Acesso a Mem´ria (AM) e ` o • 10% possuem erros de Sintaxe e de Acesso a Mem´ria. ` o Admitamos que foi escolhido ao acaso um programa e que este possu´ erros de Sintaxe. ıa Neste caso qual a probabilidade do programa possuir (tamb´m) erros de Acesso ` e a Mem´ria? o • Quadro de eventos e probabilidades Evento Probabilidade S = programa com erros de Sintaxe P (S) = 0.2 AM = programa com erros de Acesso ` Mem´ria a o P (AM ) = 0.3 S ∩ AM = programa com erros de Sintaxe e de Acesso ` Mem´ria a o P (S ∩ AM ) = 0.1 • Evento AM |S • Prob. pedida P (S ∩ AM ) P (S) 0.1 = 0.2 1 = 2 P (AM |S) = (2.15) • 24
  • 30. 2.4 Leis das probabilidades compostas e da probabilidade total. Teorema de Bayes. Motiva¸˜o 2.42 — Lei das probabilidades compostas ca Suponha que se conhece P (A|B) e P (B). Ser´ que podemos calcular P (A ∩ B)? A a resposta ´ afirmativa: e P (A ∩ B) = P (B)P (A|B). (2.16) A generaliza¸ao deste resultado para a intersec¸ao de n eventos constitui a lei das c˜ c˜ probabilidades compostas (uma de duas regras da multiplica¸ao). c˜ • Proposi¸˜o 2.43 — Lei das probabilidades compostas ca Considere-se uma colec¸˜o de n eventos {Ai }i=1,...,n tal que P (Ai ) ca P (A1 ∩ A2 ∩ . . . An−1 ) > 0. Ent˜o a > 0 e P (A1 ∩ A2 ∩ . . . ∩ An−1 ∩ An ) = P (A1 ) × P (A2 |A1 ) × P [A3 |(A1 ∩ A2 )] . . . × P [An |(A1 ∩ A2 ∩ . . . An−1 )]. (2.17) • Exerc´ ıcio 2.44 — Demonstre a lei das prob. compostas enunciada na Prop. 2.43. • Com o exemplo que se segue, veremos que a lei das probabilidades compostas ´ e de extrema utilidade especialmente quando pretendemos calcular a probabilidade de sequˆncias de eventos em experiˆncias aleat´rias. e e o Exemplo 2.45 — Lei das probabilidades compostas Considere-se um lote de 100 molas do sistema de suspens˜o de autom´vel. Destas, 20 a o s˜o consideradas defeituosas (D) por violarem a lei de Hooke quando se aplica uma for¸a a c 4 superior a 35 × 10 N . Responda as quest˜es seguintes sabendo que foram recolhidas 3 molas ao acaso e sem ` o reposi¸ao deste lote. c˜ (a) Qual a probabilidade das 3 molas n˜o serem defeituosas? a • Evento D1 ∩ D2 ∩ D3 = 1a., 2a. e 3a. molas n˜o defeituosas a 25
  • 31. • Prob. pedida P (D1 ∩ D2 ∩ D3 ) lei prob. comp. = = = P (D1 ) × P (D2 |D1 ) × P [D3 |(D1 ∩ D2 )] 80 80 − 1 80 − 1 − 1 × × 100 100 − 1 100 − 1 − 1 79 78 80 × × . 100 99 98 (b) Qual a probabilidade de, nessa mesma recolha, obtermos uma mola defeituosa somente a 3a. extrac¸ao? ` c˜ • Evento D1 ∩ D2 ∩ D3 = 1a. e 2a. molas n˜o defeituosas e 3a. mola defeituosa a • Prob. pedida P (D1 ∩ D2 ∩ D3 ) lei prob. comp. = = = P (D1 ) × P (D2 |D1 ) × P [D3 |(D1 ∩ D2 )] 80 80 − 1 20 × × 100 100 − 1 100 − 1 − 1 80 79 20 × × . 100 99 98 • A no¸˜o de parti¸˜o do espa¸o de resultados enunciada j´ a seguir ´ necess´ria para ca ca c a e a enunciar n˜o s´ a lei da probabilidade total nesta sec¸˜o como o Teorema de Bayes a o ca enunciado ainda neste cap´ ıtulo. Defini¸˜o 2.46 — Parti¸˜o de Ω ca ca A colec¸ao de n eventos PΩ = {Ai }i=1,...,n diz-se uma parti¸˜o de Ω sse: c˜ ca • Ai ∩ Aj = ∅, i = j (eventos disjuntos dois a dois); • n i=1 Ai = Ω; • P (Ai ) > 0, i = 1, . . . , n.2 • 2 As parti¸˜es com que lidaremos s˜o de um modo geral constitu´ co a ıdas por um n´mero finito de eventos. u Estes tamb´m podem ser em n´mero infinito numer´vel. No ˆmbito desta disciplina n˜o se considerar˜o e u a a a a parti¸˜es com um n´mero infinito n˜o numer´vel de eventos, da´ a nota¸˜o. co u a a ı ca 26
  • 32. Exemplo 2.47 — Parti¸˜o de Ω ca • E.A. — Registo do n´mero de acidentes na A1 durante um ano u • Ω = {0, 1, 2, . . .} • PΩ = {{i}}i=0,1,2,... , parti¸ao constitu´ por todos os eventos elementares de Ω c˜ ıda c˜ ıda • PΩ = {{0, 2, 4, 6, . . .}, {1, 3, 5, . . .}}, parti¸ao constitu´ pelos eventos “registo de n´mero par” e “registo de n´mero ´ u u ımpar”. • Proposi¸˜o 2.48 — Lei da probabilidade total ca Sejam: • B um evento; • PΩ = {Ai }i=1,...,n uma parti¸ao de Ω. c˜ Ent˜o a n P (B) = P (B|Ai )P (Ai ). (2.18) i=1 • Nota 2.49 — Lei da probabilidade total Este resultado reveste-se de grande importˆncia por permitir calcular a probabilidade de a um evento B quando se disp˜e das probabilidades do evento B condicionado a eventos Ai o (que constituem uma parti¸ao de Ω) e das probabilidades destes eventos que condicionam c˜ B. • Exerc´ ıcio 2.50 — Lei da probabilidade total Prove a lei da probabilidade total enunciada anteriormente na Proposi¸˜o 2.48. ca • Exemplo 2.51 — Lei da probabilidade total 3 Com o objectivo de aumentar a seguran¸a de crian¸as em autom´veis, est˜o a ser testados c c o a dois dispositivos de reten¸ao A e B. As simula¸oes mostraram que, em caso de acidente c˜ c˜ grave, o dispositivo A (resp. B) ´ eficaz em 95% (resp. 96%) dos casos. Admita e que no mercado s´ passar˜o a existir estes dois dispositivos, instalados em autom´veis o a o exactamente na mesma propor¸˜o. ca Qual a probabilidade do dispositivo de reten¸ao instalado num autom´vel seleccionado ao c˜ o acaso vir a ser eficaz em caso de acidente grave? 3 ´ Adaptado do Exame de 1a. Epoca, 24 de Junho de 2006. 27
  • 33. • Quadro de eventos e probabilidades Evento Probabilidade A = dispositivo do tipo A P (A) = 0.5 B = dispositivo do tipo B P (B) = 0.5 E = dispositivo eficaz em caso de acidente grave P (E) = ? E|A = dispositivo eficaz... dado que ´ do tipo A e P (E|A) = 0.95 E|B = dispositivo eficaz... dado que ´ do tipo B e P (E|B) = 0.96 • Evento E = dispositivo eficaz em caso de acidente grave • Prob. pedida lei prob. total = P (E|A) × P (A) + P (E|B) × P (B) = 0.95 × 0.5 + 0.96 × 0.5 = P (E) 0.955. (Por que raz˜o P (E) ´ igual ` m´dia aritm´tica de P (E|A) e P (E|B)?) a e a e e Motiva¸˜o 2.52 — Teorema de Bayes ca Uma vez conhecida a probabilidade P (A|B)? A resposta a esta quest˜o ´ afirmativa — a e P (A|B) = P (B|A) × P (A) P (B) P (B|A) poder´ a • avaliar-se (2.19) • — e ´ enunciada no teorema que se segue. e Teorema 2.53 — Teorema de Bayes Sejam: • B um evento tal que P (B) > 0; • PΩ = {A1 , . . . An } uma parti¸ao de Ω. c˜ Ent˜o a P (Ai |B) = P (B|Ai )P (Ai ) . P (B) (2.20) 28
  • 34. Recorrendo ` lei da probabilidade total pode adiantar-se que a P (Ai |B) = P (B|Ai )P (Ai ) . P (B|Aj )P (Aj ) (2.21) n j=1 • Nota 2.54 — Este resultado permite que a reavalia¸˜o das probabilidades se fa¸a tanto ca c num sentido como noutro: • Ai sabendo B e • B sabendo Ai . • Exemplo 2.55 — Teorema de Bayes 4 Retome o Exemplo 2.51 e calcule agora a probabilidade de o dispositivo ser do tipo A sabendo que foi eficaz em caso de acidente grave. • Evento A|E = dispositivo do tipo A dado que foi eficaz em caso de acidente grave • Prob. pedida P (A|E) teorema Bayes = = = P (E|A) × P (A) P (E) 0.95 × 0.5 0.955 0.4974. • Exemplo 2.56 — Lei da probabilidade total e teorema de Bayes 5 Quatro instrumentos de corte, um de cada uma das marcas M1 , M2 , M3 e M4 , funcionam satisfatoriamente com probabilidade 0.9, 0.8, 0.6, 0.4, respectivamente para cada marca. (a) Determine a probabilidade de um instrumento, seleccionado ao acaso desses quatro, funcionar satisfatoriamente. ´ Adaptado do Exame de 1a. Epoca, 24 de Junho de 2006. 5 ´ Exame de Epoca Especial, 8 de Setembro de 2004. 4 29
  • 35. • Quadro de eventos e probabilidades Evento Probabilidade Mi = instrum. ser da marca i P (Mi ) = 0.25, i = 1, 2, 3, 4 S = instrum. func. satisf. P (S) = ? S|Mi = instrum. func. satisf. dado que ´ da marca i e   0.9, i       0.8, i P (S|Mi ) =   0.6, i      0.4, i =1 =2 =3 =4 • Evento S = instrum. seleccionado funcionar satisfatoriamente • Prob. pedida P (S) lei prob. total 4 P (S|Mi ) × P (Mi ) = i=1 = (0.9 + 0.8 + 0.6 + 0.4) × 0.25 = 0.675. (b) Sabendo que o instrumento seleccionado ao acaso n˜o funciona satisfatoriamente, a qual a probabilidade de se ter selecionado um dos dois instrumentos menos fi´veis? a • Evento (M3 ∪ M4 )|S = instrum. seleccionado ser das duas marcas menos fi´veis dado a que n˜o funcionou satisfatoriamente a • Prob. pedida P [(M3 ∪ M4 )|S] = teorema Bayes = = = = P (M3 |S) + P (M4 |S) P (S|M3 ) × P (M3 ) P (S|M4 ) × P (M4 ) + P (S) P (S) [1 − P (S|M3 )] × P (M3 ) 1 − P (S) [1 − P (S|M4 )] × P (M4 ) + 1 − P (S) (1 − 0.6) × 0.25 (1 − 0.4) × 0.25 + 1 − 0.675 1 − 0.675 0.769. • 30
  • 36. 2.5 Acontecimentos independentes. Defini¸˜o 2.57 — Eventos independentes ca Os eventos A e B dizem-se independentes sse P (A ∩ B) = P (A) × P (B), (2.22) Neste caso ´ usual escrever-se A⊥ e ⊥B. • Exemplo 2.58 — Lei da probabilidade total; eventos independentes6 75% da popula¸ao de Nicosia (Chipre) ´ grega e 25% turca. Apurou-se tamb´m que 20% c˜ e e dos gregos e 10% dos turcos falam inglˆs. e (a) Qual a percentagem da popula¸˜o de Nicosia que fala inglˆs? ca e • Quadro de eventos e probabilidades Evento Probabilidade G = habitante grego P (G) = 0.75 T = habitante turco P (T ) = 0.25 I = habitante falar inglˆs e P (I) = ? I|G = habitante falar inglˆs dado que ´ grego e e P (I|G) = 0.20 I|T = habitante falar inglˆs dado que ´ turco e e P (I|T ) = 0.10 • Evento I = habitante falar inglˆs e • Prob. pedida lei prob. total P (I|G) × P (G) + P (I|T ) × P (T ) 0.20 × 0.75 + 0.10 × 0.25 = 6 = = P (I) 0.175. Adaptado do Teste A, 22 de Abril de 2006. 31
  • 37. (b) Ser˜o os eventos “ser grego” e “falar inglˆs” eventos independentes? a e • Averigua¸˜o de independˆncia ca e P (G ∩ I) = P (I|G) × P (G) = 0.20 × 0.75 = 0.15 = P (G) × P (I) = 0.75 × 0.175 = 0.13125. J´ que P (G ∩ I) = P (G) × P (I) pode afirmar-se que G e I n˜o s˜o eventos a a a independentes como, ali´s, seria de esperar. a • Proposi¸˜o 2.59 — Consequˆncias ca e 1. Sejam A e B eventos independentes tais que P (A) > 0 e P (B) > 0. Ent˜o: a • P (A|B) = P (A); • P (B|A) = P (B). Isto ´, o conhecimento de B n˜o afecta a reavalia¸ao da probabilidade de A, e e a c˜ vice-versa. 2. Sejam A e B dois eventos tais que: • A ∩ B = ∅ (eventos disjuntos); • P (A) > 0 e P (B) > 0. Ent˜o A⊥ a ⊥B, i.e., A e B n˜o s˜o independentes. a a 3. Tem-se, para qualquer evento A: • A⊥ ⊥∅; • A⊥ ⊥Ω. 4. Sejam A e B dois eventos independentes. Ent˜o: a • A⊥ ⊥B; • A⊥ ⊥B; • A⊥ ⊥B. • 32
  • 38. Exerc´ ıcio 2.60 — Eventos independentes Demonstre a Proposi¸ao 2.59. c˜ • Nota 2.61 — Independˆncia completa (trˆs eventos) e e Os eventos A, B e C dizem-se completamente independentes sse • P (A ∩ B) = P (A) × P (B); • P (A ∩ C) = P (A) × P (C); • P (B ∩ C) = P (B) × P (C); • P (A ∩ B ∩ C) = P (A) × P (B) × P (C). • Nota 2.62 — Independˆncia completa (n eventos) e Os eventos A1 , . . . , An dizem-se completamente independentes sse o forem dois a dois, trˆs e a trˆs, . . ., n a n. e • 33
  • 39. Cap´ ıtulo 3 Vari´veis aleat´rias e distribui¸oes a o c˜ discretas Em algumas situa¸oes os resultados das e.a. s˜o num´ricos, como ´ o caso de medi¸oes, c˜ a e e c˜ contagens, etc. Noutras os resultados poss´ ıveis constituem um espa¸o n˜o num´rico.1 c a e Basta pensar na classifica¸ao de 2 artigos, seleccionados da produ¸ao de uma f´brica, c˜ c˜ a quanto a serem defeituosos ou n˜o defeituosos. a Ao realizar esta e outras e.a. ´ frequente n˜o estarmos interessados nos resultados e a 2 detalhados da mesma mas somente numa quantidade num´rica determinada pelo e resultado da e.a., por exemplo, o n´mero de artigos defeituosos. Neste caso atribuiu se um n´mero a cada resultado da e.a., sendo que tal atribui¸ao pode ser puramente u c˜ convencional... Passemos a defini¸˜o (informal) de vari´vel aleat´ria: a de fun¸˜o — com ` ca a o ca caracter´ ısticas especiais — que transforma eventos em n´meros ou, mais genericamente, u em vectores. Defini¸˜o 3.1 — Vari´vel aleat´ria ca a o A fun¸˜o X diz-se uma vari´vel aleat´ria (v.a.) se possuir ca a o • dom´ ınio Ω, • contradom´ ınio I X contido em I n R R e tiver a particularidade de verificar uma condi¸˜o de mensurabilidade.3 Assim, ca 1 Leia-se: Ω n˜o ´ um subconjunto de I n . a e R Neste caso particular os resultados s˜o pares ordenados: (D1 , D2 ), (D1 , D2 ), etc., onde Di (Di ) a representa a classifica¸˜o do artigo i de defeituoso (n˜o defeituoso, respectivamente). ca a 3 Esta condi¸˜o ser´ explicitada dentro em breve. ca a 2 34
  • 40. X : Ω → I X ⊂ I n, R R (3.1) i.e., a imagem de um evento ω ∈ Ω ´ um vector X(ω) ∈ I X ⊂ I n . e R R • Nota 3.2 — Tipos de vari´veis aleat´rias a o Dependendo do valor da constante n estaremos a lidar com v.a.s com car´cteres distintos: a • se n = 1, a v.a. diz-se unidimensional; • se n = 2, a v.a. diz-se bidimensional; • se n > 2, a v.a. diz-se multidimensional. No ˆmbito desta disciplina debru¸ar-nos-emos em particular nos casos unidimensional e a c bidimensional. Dependendo do cardinal do conjunto de valores poss´ ıveis da v.a. estaremos a lidar grosso modo com os seguintes tipos de v.a.: • se #I X = #I (ou seja, I X ´ finito ou infinito numer´vel), a v.a. diz-se discreta; R N R e a • se #I X = #I (i.e., infinito n˜o numer´vel) e..., a v.a. diz-se cont´ R R a a ınua. • Nota 3.3 — Condi¸˜o de mensurabilidade ca Considere-se que uma e.a. possui espa¸o de resultados Ω associado ` σ−´lgebra A. E seja c a a X uma v.a. unidimensional. A condi¸ao de mensurabilidade prende-se neste caso com a existˆncia de imagem c˜ e inversa (segundo X) de qualquer intervalo do tipo (−∞, x] na σ−´lgebra A: a ∀x ∈ I X −1 ((−∞, x]) ∈ A, R, onde X −1 ((−∞, x]) = {ω ∈ Ω : X(ω) ≤ x}. 35 •
  • 41. 3.1 Vari´veis aleat´rias discretas. a o Defini¸˜o 3.4 — V.a. discreta ca A v.a. X diz-se discreta, caso tome valores em I X = {x1 , x2 , . . .}, em n´mero finito ou R u infinito numer´vel, e a P (X ∈ I X ) = P (X ∈ {x1 , x2 , . . .}) = 1. R (3.2) • Exemplo 3.5 — Vari´vel aleat´ria discreta a o Considere-se um teste americano com 3 quest˜es, cujas respostas s˜o dadas de forma o a independente. A resposta a cada quest˜o pode estar correcta (C) com probabilidade a P (C) = 0.5, ou incorrecta (C) com probabilidade P (C) = 0.5. (a) Identifique a e.a. e o respectivo espa¸o de resultados. c • E.a. Classifica¸ao de 3 quest˜es em teste americano c˜ o • Eventos-chave C =quest˜o classificada como correcta a C =quest˜o classificada como incorrecta a • Espa¸o de resultados c Ω = {CCC, CCC, CCC, CCC, CCC, CCC, CCC, CCC}. Este espa¸o de resultados ´ constitu´ por 8 eventos elementares. c e ıdo c˜ o Por exemplo, CCC representa de forma abreviada a classifica¸ao das 3 quest˜es como incorrectas e CCC a classifica¸ao da segunda quest˜o como correcta e as c˜ a restantes como incorrectas. (b) Defina uma v.a. que considere pertinente e determine o conjunto dos seus valores poss´ ıveis (i.e., o seu contradom´ ınio). Represente a v.a. esquematicamente enquanto fun¸ao que transforma eventos em n´meros reais. c˜ u • V.a. X = n´mero de respostas correctas no teste americano u • Contradom´ ınio e representa¸˜o esquem´tica de X ca a I X = {0, 1, 2, 3} R 36
  • 42. X(CCC) = 0 X(CCC) = X(CCC) = X(CCC) = 1, etc. • 37
  • 43. 3.2 Fun¸˜o de probabilidade. ca A defini¸ao de uma v.a. discreta s´ fica completa a partir do momento em que se define a c˜ o probabilidade de ocorrˆncia de cada um dos elementos de I X , i.e., a partir do momento em e R que se define a fun¸˜o de probabilidade (ou fun¸˜o massa de probabilidade) da v.a. discreta ca ca X. Defini¸˜o 3.6 — Fun¸˜o de probabilidade ca ca Seja X uma v.a. discreta com contradom´ ınio I X = {x1 , x2 , . . .} (necessariamente finito R ou infinito numer´vel). Ent˜o a fun¸˜o de probabilidade (f.p.) de X ´ dada por a a ca e P (X = x) = P ({ω ∈ Ω : X(ω) = x}) =   P (X = xi ), se x = xi ∈ I X R 0, c.c.  (3.3) e satisfaz: • P (X = x) > 0, ∀x ∈ I X ; R • x∈I R P (X = x) = x∈I X R P (X = x) = i P (X = xi ) = 1. Exerc´ ıcio 3.7 — Fun¸˜o de probabilidade ca Retome o Exemplo 3.5 e defina a f.p. da v.a. X e desenhe o respectivo gr´fico. a • V.a. X = n´mero de respostas correctas no teste americano u • F.p. de X P (X = 0) = P (CCC) = P (C 1 C 2 C 3 ) ev. indep = ev. equiprov. P (C 1 ) × P (C 2 ) × P (C 3 ) = = P (X = 1) P (C) × P (C) × P (C) (1/2)3 = P (CCC) + P (CCC) + P (CCC) = ... = 3 × (1/2)3 38 •
  • 44. P (X = 2) P (CCC) + P (CCC) + P (CCC) = ... = 3 × (1/2)3 = P (CCC) = ... = P (X = 3) = (1/2)3 . Ou de forma resumida     1/8, x = 0, 3 P (X = x) = 3/8, x = 1, 2    0, outros valores de x. • Gr´fico da f.p. de X a De notar que esta fun¸ao possui 4 pontos de descontinuidade, tantos quantos o c˜ n´mero de valores poss´ u ıveis da v.a. X. • 39
  • 45. 3.3 Fun¸˜o de distribui¸˜o. ca ca ´ Motiva¸˜o 3.8 — E usual falar-se na probabilidade da v.a. X tomar valores n˜o ca a ´ com o objectivo de obter tal probabilidade superiores a um n´mero real arbitr´rio x. E u a que definiremos a fun¸ao de distribui¸˜o da v.a. discreta X. c˜ ca • Defini¸˜o 3.9 — Fun¸˜o de distribui¸˜o ca ca ca A fun¸˜o de distribui¸ao (f.d.) de uma v.a. X ´ dada por ca c˜ e FX (x) = P (X ≤ x), x ∈ I R, (3.4) independentemente do seu car´cter ser discreto ou cont´ a ınuo. • Nota 3.10 — Fun¸˜o de distribui¸˜o ca ca Relembre-se que, por tratar-se da probabilidade da v.a. X atribuir valores menores ou iguais ao real arbitr´rio x, tem-se a FX (x) = P ({ω ∈ Ω : X(ω) ≤ x}), x ∈ I R, (3.5) ou seja, FX (x) ´ igual ` probabilidade da colec¸˜o de todos os eventos (da σ−´lgebra de e a ca a Ω) aos quais a v.a. X atribui valores no intervalo (−∞, x]. • Defini¸˜o 3.11 — Fun¸˜o de distribui¸˜o de v.a. discreta ca ca ca A f.d. da v.a. discreta X (com contradom´ I X = {x1 , x2 , . . .}) pode escrever-se a custa ınio R ` da f.p. de X: P (X = xi ), x ∈ I R. FX (x) = P (X ≤ x) = (3.6) xi ≤x • Nota 3.12 — Fun¸˜o de distribui¸˜o ca ca Retenha-se tamb´m que a f.d. possui dom´ real e toma valores no intervalo [0, 1] j´ que e ınio a se trata de uma probabilidade, ou seja: FX : I → [0, 1], R (3.7) • quer X seja uma v.a. discreta ou cont´ ınua. Esta ´ uma de diversas propriedades satisfeitas pela f.d. de qualquer v.a. discreta, e tamb´m patente na resolu¸ao do exerc´ que se segue. e c˜ ıcio 40
  • 46. Exerc´ ıcio 3.13 — Fun¸˜o de distribui¸˜o de v.a. discreta ca ca Determine a f.d. da v.a. X definida no Exemplo 3.5 e desenhe o gr´fico de FX (x) e nomeie a algumas caracter´ ısticas desta fun¸ao. c˜ • V.a. X = n´mero de respostas correctas no teste americano u • F.p. de X           P (X = x) =          1/8, 3/8, 3/8, 1/8, 0, x=0 x=1 x=2 x=3 outros valores de x. • F.d. de X Comece-se por preencher a tabela abaixo — de forma justificada — com alguns valores da f.d. de X. FX (x) = P (X ≤ x) = x -0.5 xi ≤x P (X = xi ) FX (−0.5) = P (X ≤ −0.5) = 0 FX (0) = P (X ≤ 0) = P (X = 0) = 1/8 0 0.3 FX (0.3) = P (X ≤ 0.3) = P (X = 0) = 1/8 FX (1) = P (X ≤ 1) = P (X = 0) + P (X = 1) = 1/8 + 3/8 = 1/2 1 1.4 2 FX (1.4) = P (X ≤ 1.4) = . . . FX (2) = . . . 2.8 3 FX (2.8) = . . . FX (3) = . . . 10.5 FX (10.5) = . . . Pode ent˜o concluir-se que: a FX (x) = P (X ≤ x) = P (X = xi ) xi ≤x 41 Obs.
  • 47. =                    0, 1/8, 1/8 + 3/8 = 1/2, 1/8 + 3/8 + 3/8 = 7/8, 1/8 + 3/8 + 3/8 + 1/8 = 1, x<0 0≤x<1 1≤x<2 2≤x<3 x ≥ 3. • Gr´fico da f.d. de X a (Procure identificar graficamente os diversos valores da f.p. de X.) • Algumas propriedades da f.d. de X Fun¸˜o em escada; ca Fun¸˜o mon´tona n˜o decrescente (ou crescente em sentido lato); etc. ca o a • Proposi¸˜o 3.14 — Propriedades da f.d. de v.a. discreta ca A f.d. da v.a. discreta X, FX (x), ´ uma: e 1. Fun¸ao em escada que possui tantos pontos de descontinuidade quantos os valores c˜ distintos de I X ; R 2. Fun¸ao cont´ c˜ ınua a direita;4 ` 3. Fun¸ao mon´tona n˜o decrescente de x.5 c˜ o a Entre outras propriedades da f.d. de uma v.a discreta X destaque-se tamb´m: e 4. 0 ≤ FX (x) ≤ 1; 4 Ou seja, FX (x) = FX (x+ ), ∀x ∈ I onde FX (x+ ) representa o limite ` direita da f.d., num ponto R, a real x arbitr´rio. Recorde-se que este limite ´ definido por FX (x+ ) = limh→0 FX (x + h), h > 0. Note-se a e tamb´m que este limite nem sempre ´ igual ao limite ` esquerda no ponto x, FX (x− ) = limh→0 FX (x − e e a h), h > 0, caso se esteja a lidar com uma v.a. discreta. 5 I.e., FX (x) ≤ FX (x + h), ∀h > 0, x ∈ I R. 42
  • 48. 5. FX (−∞) = limx→−∞ FX (x) = 0; 6. FX (+∞) = limx→+∞ FX (x) = 1; 7. P (X < x) = FX (x− ) = limh→0 FX (x − h), h > 0; 8. P (X > x) = 1 − FX (x); 9. P (X ≥ x) = 1 − FX (x− ); e ainda, para a < b, 10. P (a < X ≤ b) = FX (b) − FX (a), 11. P (a < X < b) = FX (b− ) − FX (a), 12. P (a ≤ X < b) = FX (b− ) − FX (a− ), 13. P (a ≤ X ≤ b) = FX (b) − FX (a− ). Refira-se por fim que, a f.p. da v.a. discreta X, P (X = x) pode escrever-se ` custa da a f.d. de X: P (X = x) = FX (x) − FX (x− ). (3.8) • Importa notar que todas as propriedades aqui referidas — a excep¸˜o de 1. — s˜o ` ca a partilhadas pela f.d. de qualquer v.a. cont´ ınua. Refira-se tamb´m que algumas destas e propriedades ser˜o rescritas de modo a reflectir o car´cter cont´ a a ınuo da v.a. 43
  • 49. Exemplo 3.15 — Rela¸˜o entre a fun¸˜o de probabilidade e a fun¸˜o de ca ca ca distribui¸˜o ca Retome o Exemplo 3.5. (a) Obtenha a f.p. da v.a. X que representa o n´mero de quest˜es correctas no teste u o americano ` custa da f.d. desta v.a. a • F.p. de X P (X P (X P (X P (X = 0) = FX (0) − FX (0− ) = 1/8 − 0 = 1/8 = 1) = FX (1) − FX (1− ) = FX (1) − FX (0) = 1/2 − 1/8 = 3/8 = 2) = FX (2) − FX (2− ) = FX (2) − FX (1) = 7/8 − 1/2 = 3/8 = 3) = FX (3) − FX (3− ) = FX (3) − FX (2) = 1 − 7/8 = 1/8. (b) Determine P (0 < X < 3) recorrendo quer a f.p. de X, quer a f.d. de X. ` ` • Probabilidade pedida P (0 < X < 3) = P (X = 1) + P (X = 2) = 3/8 + 3/8 = 3/4 P (0 < X < 3) = FX (3− ) − FX (0) = FX (2) − FX (0) = 7/8 − 1/8 = 3/4. Como se pode constatar os resultados s˜o iguais. a 44 •
  • 50. 3.4 Valor esperado, variˆncia e algumas das suas a propriedades. Moda e quantis. Para descrever completamente o comportamento probabil´ ıstico de uma v.a. X ´ necess´rio e a recorrer ` fun¸ao de distribui¸˜o. Caso X seja uma v.a. discreta, pode recorrer-se em a c˜ ca alternativa a fun¸˜o de probabilidade. ` ca Pode, no entanto, optar-se por uma caracteriza¸˜o parcial da v.a. X. ca Defini¸˜o 3.16 — Parˆmetro ca a Um parˆmetro n˜o passa de um indicador ou medida sum´ria capaz de caracterizar — a a a embora parcialmente — algum aspecto de uma v.a. X. Entre eles destacaremos os: • Parˆmetros de localiza¸ao central a c˜ – valor esperado – moda – mediana; • Parˆmetros de localiza¸ao n˜o central a c˜ a – quantil de probabilidade (ou quantil de ordem) p; • Parˆmetros de dispers˜o a a – variˆncia a – desvio-padr˜o a • – coeficiente de varia¸ao. c˜ Motiva¸˜o 3.17 — Valor esperado de v.a. discreta ca O conceito de valor esperado teve a sua origem nos jogos de acaso e ao que parece a sua introdu¸ao deve-se a Christiaan Huygens (1629–95). c˜ O valor esperado de X corresponde ao seu centro de gravidade. Esta analogia f´ ısica tem a sua raz˜o de ser: para tal basta pensar num sistema de corpos com a • massas mi • posi¸oes xi , c˜ 45
  • 51. x m i cujo centro de massa ´ dado por i mi i . Assim, o valor esperado de X mais n˜o ´ que o e a e i centro de “massa de probabilidade” desta v.a. • Defini¸˜o 3.18 — Valor esperado de v.a. discreta ca O valor esperado da v.a. discreta X ´ dado por e E(X) = x P (X = x). (3.9) • x Nota 3.19 — Valor esperado de v.a. discreta 1. E(X) = x∈I R x P (X = x) = 2. E(X) existe sse x∈I X R x∈I X R x P (X = x). |x| P (X = x), i.e., sse a s´rie for absolutamente convergente. e 3. De um modo geral E(X) ∈ I X , i.e., o valor esperado de X n˜o pertence ao conjunto R a de valores poss´ ıveis de X, caso X seja uma v.a. discreta. ´ 4. E usual escolher E(X) como o valor representativo da v.a. X, em particular se X possuir distribui¸ao com tendˆncia central uma vez que neste caso ´ em torno desse c˜ e e ponto que mais se concentram as probabilidades. 5. O valor esperado de X ´ tamb´m representado/designado por µ, µX , m´dia, valor e e e m´dio, esperan¸a matem´tica, etc. e c a • Proposi¸˜o 3.20 — Propriedades do valor esperado ca O valor esperado da v.a. X satisfaz as seguintes propriedades. 1. E(b) = b, ∀b ∈ I R. 2. E(aX + b) = aE(X) + b, ∀a, b ∈ I ou seja, o valor esperado ´ um operador linear. R, e 3. Seja Y = ψ(X) uma v.a. fun¸ao (mensur´vel) de X. Ent˜o c˜ a a E(Y ) = E[ψ(X)] = ψ(x) P (X = x), (3.10) x caso X seja uma v.a. discreta. 4. De um modo geral E[ψ(X)] = ψ[E(X)]. (3.11) 46
  • 52. 5. Seja X uma v.a. inteira n˜o negativa, i.e., I X = I 0 = {0, 1, 2, . . .}. Ent˜o a R N a +∞ E(X) = +∞ [1 − FX (x)]. P (X > x) = x=0 (3.12) x=0 • Exerc´ ıcio 3.21 — Demonstre a Proposi¸˜o 3.20. ca • Exemplo 3.22 — Valor esperado de v.a. discreta (a) Calcule o valor esperado do n´mero de respostas correctas no teste americano u descrito no Exemplo 3.5. • V.a. X = n´mero de respostas correctas no teste americano u • F.p. de X     1/8, x = 0, 3 P (X = x) = 3/8, x = 1, 2    0, outros valores de x. • Valor esperado de X 3 x × P (X = x) E(X) = x=0 = 0 × 1/8 + 1 × 3/8 + 2 × 3/8 + 3 × 1/8 = 1.5. Importa notar que E(X) coincide, neste caso, com o ponto de simetria da f.p. de X. (b) O n´mero de neutrinos registados em intervalos de 12 segundos, aquando da primeira u observa¸˜o da supernova S1987a por astr´nomos, ´ bem modelado pela v.a. X com ca o e f.p. P (X = x) =   e−0.8 ×0.8x , x!  0, x = 0, 1, 2, . . . outros valores de x. Obtenha o valor esperado de X.6 6 Adaptado do Teste A, 22 de Abril de 2006. 47
  • 53. • V.a. X = n´mero de neutrinos registados num intervalo de 12 segundos u • F.p. de X   e−0.8 ×0.8x , x! P (X = x) = 0,  x = 0, 1, 2, . . . outros valores de x. • Valor esperado de X +∞ x × P (X = x) E(X) = x=0 +∞ x× = x=0 +∞ = e−0.8 × 0.8x x! e−0.8 × 0.8x (x − 1)! x=1 +∞ −0.8 = 0.8 × e 0.8x x=0 x! = 0.8. Aqui temos outro exemplo de um valor esperado que n˜o pertence ao conjunto a de valores poss´ ıveis da v.a. X. • Defini¸˜o 3.23 — Moda de v.a. discreta ca ´ E importante saber qual o valor da v.a. X que ocorre com mais frequˆncia. Este valor e ser´ designado por mo = mo(X) e corresponde ao ponto de m´ximo da f.p. de X, i.e., a a mo : P (X = mo) = max P (X = x), x (3.13) ou, equivalentemente, mo = arg maxx P (X = x). • Nota 3.24 — Moda de v.a. discreta A moda de uma v.a. nem sempre ´ unica como ilustra o exemplo seguinte e j´ agora e ´ a refira-se que • X se diz bimodal se possuir duas modas. 48 •
  • 54. Exemplo 3.25 — Moda de v.a. discreta Obtenha a moda do: (a) N´mero de respostas correctas no teste americano (Exemplo 3.5). u • V.a. X = n´mero de respostas correctas no teste americano u • F.p. de X     1/8, x = 0, 3 P (X = x) = 3/8, x = 1, 2    0, outros valores de x. • Moda de X mo = mo(X) = 1 e 2 j´ que P (X = 1) = P (X = 2) = maxx P (X = x). a Logo a v.a. X ´ bimodal. e (b) N´mero de neutrinos registado num intervalo de 12 segundos (Exemplo 3.22). u • V.a. X = n´mero de neutrinos registados num intervalo de 12 segundos u • F.p. de X P (X = x) =   e−0.8 ×0.8x , x!  0, x = 0, 1, 2, . . . outros valores de x. • Moda de X A obten¸ao do ponto de m´ximo de uma f.p. n˜o passa pela determina¸ao de c˜ a a c˜ um ponto de estacionaridade (de uma fun¸ao cont´ c˜ ınua e diferenci´vel) mas sim a pela determina¸ao de c˜ P (X = mo) ≥ P (X = mo − 1)  P (X = mo) ≥ P (X = mo + 1)   mo = mo(X) ∈ I X : R   P (X=mo) P (X=mo−1) P (X=mo+1) P (X=mo)  ≥1 ≤ 1. (3.14) Ao substituir-se a f.p. de X nas duas desigualdades acima, conclui-se que   mo = mo(X) ∈ I X :  R 0.8 ≥1 mo 0.8 ≤ 1, mo+1 • i.e., mo = mo(X) = 0. 49
  • 55. Motiva¸˜o 3.26 — Mediana de v.a. discreta ca A mediana da v.a. X, me = me(X), tem a particularidade de verificar   P (X ≤ me) ≥ 1 2  P (X ≥ me) ≥ 1 , 2 (3.15) pelo que a probabilidade de registarmos valores da v.a. X n˜o superiores (n˜o inferiores) a a a mediana ´ de pelo menos 50%. ` e • Defini¸˜o 3.27 — Mediana de v.a. discreta ca A mediana da v.a. discreta X, me = me(X),7 verifica a dupla desigualdade me : 1 1 ≤ FX (me) ≤ + P (X = me), 2 2 (3.16) por sinal equivalente a (3.15) e j´ agora equivalente a FX (me− ) ≤ a 1 2 ≤ FX (me).8 • Nota 3.28 — Mediana de v.a. discreta Ao lidarmos com v.a. discretas a mediana pode n˜o ser unica, passando nesse caso a a ´ falar-se em classe mediana.9 • Exemplo 3.29 — Mediana de v.a. discreta Determine a mediana do n´mero de respostas correctas no teste americano (Exemplo 3.5). u • V.a. X = n´mero de respostas correctas no teste americano u • F.d. de X Esta fun¸ao foi determinada previamente e ´ igual a: c˜ e FX (x) = P (X ≤ x) =                    0, 1/8, 1/8 + 3/8 = 1/2, 1/8 + 3/8 + 3/8 = 7/8, 1/8 + 3/8 + 3/8 + 1/8 = 1, x<0 0≤x<1 1≤x<2 2≤x<3 x ≥ 3. −1 me ´ tamb´m representada por FX (1/2). e e Esta talvez seja a forma mais expedita de identificar a(s) mediana(s) de uma v.a. discreta. 9 Ou, de acordo com alguns autores, considera-se que a mediana corresponde ao menor dos valores da classe mediana. 7 8 50
  • 56. • Mediana de X Tirando partido da express˜o de FX (x) e da defini¸ao de mediana de uma a c˜ v.a. discreta pode construir-se a seguinte tabela que servir´ para identificar a(s) a mediana(s) de X: Candidato a me 1 2 ≤ FX (me) ≤ 1 1 2 ≤ FX (1) = 1.5 1 2 ≤ FX (1.5) = 2 1 2 ≤ FX (2) = 7 8 2.1 1 2 ≤ FX (2.1) = 1 2 1 2 + P (X = me) ≤ 1 2 ≤ 7 8 1 2 ≤ 1 2 ≤ + P (X = 1) = 1 2 1 2 + + P (X = 1.5) = + P (X = 2) = 1 2 Obs. 1 2 + + P (X = 2.1) = 3 8 1 2 3 8 1 2 = 7 8 +0= = Prop. verd. 1 2 7 8 +0= Prop. verd. Prop. verd. 1 2 Prop. FALSA. Deste modo conclui-se que mediana da v.a. X n˜o ´ unica e que qualquer valor no a e´ intervalo [1, 2] ´ mediana de X. N˜o surpreende neste caso que se designe o intervalo e a [1, 2] de classe mediana. Mais, ao notar-se que me : FX (me− ) ≤ 1/2 ≤ FX (me) evita-se o recurso ` f.p. de a X e identifica(m)-se a(s) mediana(s) desta v.a. discreta de uma forma expedita. (Averigue...) • Motiva¸˜o 3.30 — Quantil de probabilidade p de v.a. discreta ca A mediana ´ um caso particular de um outro parˆmetro de localiza¸˜o n˜o central mais e a ca a gen´rico, o quantil de probabilidade (ou quantil de ordem) p (0 < p < 1), χp , que verifica e    P (X ≤ χp ) ≥ p P (X ≥ χp ) ≥ 1 − p. (3.17) Assim sendo a probabilidade de registarmos valores da v.a. X n˜o superiores (n˜o a a inferiores, resp.) ao quantil de probabilidade p ´ de pelo menos p × 100% ((1 − p) × 100%, e resp.). • Defini¸˜o 3.31 — Quantil de probabilidade p de v.a. discreta ca O quantil de probabilidade p (0 < p < 1) da v.a. X, χp ,10 satisfaz χp : p ≤ FX (χp ) ≤ p + P (X = χp ), (3.18) obviamente equivalente a (3.17) e a FX (χ− ) ≤ p ≤ FX (χp ). p 10 −1 χp ´ tamb´m representado por FX (p). e e 51 •
  • 57. Nota 3.32 — Quantil de probabilidade p de v.a. discreta −1 A mediana da v.a. X corresponde a χ1/2 = FX (1/2). Outros quantis importantes: −1 • χ1/4 = FX (1/4) = 1o. quartil; −1 • χ3/4 = FX (3/4) = 3o. quartil; −1 • χ1/100 = FX (1/100) = 1o. percentil; −1 • χn/100 = FX (n/100) = n−´simo percentil, n = 1, 2, . . . , 99; e −1 • χ0.1 = FX (1/10) = 1o. decil. • Exemplo 3.33 — Quantil de ordem p de v.a. discreta O n´mero de navios que chegam diariamente a um porto (X) ´ uma v.a. com f.p. u e 2x , x = 0, 1, 2, . . . x! As condi¸oes do porto impedem que atraquem mais de 3 navios por dia, sendo os restantes c˜ navios reencaminhados para outro porto.11 P (X = x) = e−2 × (a) Qual a probabilidade de serem reencaminhados um ou mais navios para o outro porto (num dia escolhido arbitrariamente)? • V.a. X = n´mero de navios que chegam diariamente ao porto u • F.p. de X P (X = x) = e−2 × 2x ,x x! = 0, 1, 2, . . . • Probabilidade pedida Seja R o evento que representa o reencaminhamento de um ou mais navios para o outro porto. Ent˜o a P (R) = P (X > 3) = 1 − P (X ≤ 3) 3 = 1− P (X = x) x=0 3 e−2 × = 1− x=0 2x x! = 1 − 0.8571 = 0.1429. 11 ´ Adaptado de Exame de Epoca Especial, 13 de Setembro de 2002. 52
  • 58. (b) Qual deve ser a capacidade m´ ınima do porto de modo que o reencaminhamento de um ou mais navios ocorra no m´ximo em 5% dos dias? a • Obten¸˜o da capacidade m´ ca ınima (c ) c ´ o menor inteiro c que verifica P (reencaminhamento navios) ≤ 0.05, i.e., e c : P (X > c) ≤ 0.05 1 − P (X ≤ c) ≤ 0.05 1 − FX (c) ≤ 0.05 FX (c) ≥ 0.95 −1 c ≥ FX (0.95), −1 onde FX (0.95) representa o quantil de ordem 0.95 da v.a. X e, como seria de esperar, a capacidade m´ ınima c . A obten¸˜o de c passa pela determina¸ao de FX (c) para v´rios valores de c. ca c˜ a Ora, tirando partido do resultado da al´ ınea anterior (FX (3) = 0.8571 e da monotonia n˜o decrescente de qualquer f.d., bastar´ considerar valores de c a a maiores que 3, tal como ilustramos na tabela seguinte:12 c −2 x=0 e × 2x x! FX (c) ≥ 0.95 ? c FX (c) = 4 FX (4) = FX (3) + P (X = 4) = 0.8571 + e−2 × 24 4! FX (5) = FX (4) + P (X = 5) = 0.9473 + e−2 × 5 5 2 5! = 0.9473 N˜o a = 0.9834 SIM −1 Deste modo, conclui-se que c = FX (0.95) = 5. 12 • Veremos mais tarde que a obten¸˜o de c poderia fazer-se por recurso `s tabelas da f.d. daquilo que ca a chamaremos de v.a. de Poisson. 53
  • 59. Motiva¸˜o 3.34 — Variˆncia ca a ´ necess´rio definir um parˆmetro que dˆ ideia da dispers˜o dos valores da v.a. em torno E a a e a do centro de gravidade da mesma. Este parˆmetro corresponde, fisicamente, ao momento de in´rcia de um sistema em a e rela¸ao a um eixo perpendicular ao eixo das abcissas e passando pelo centro de gravidade c˜ (Murteira (1990, p. 184)). • Defini¸˜o 3.35 — Variˆncia ca a A variˆncia da v.a. X ´ dada por a e V (X) = E(X 2 ) − E 2 (X), (3.19) independentemente do car´cter da v.a. ser discreto ou cont´ a ınuo. Contudo se X for uma v.a. discreta ent˜o V (X) obt´m-se recorrendo ao facto de neste caso a e 2 2 2 E(X ) = x x P (X = x) e E (X) = [ x xP (X = x)]2 . • Nota 3.36 — Variˆncia a 1. A variˆncia da v.a. X ´ igual ao seguinte valor esperado E {[X − E(X)]2 }. No a e entanto, esta f´rmula ´ de longe muito menos conveniente, pelo que faremos muito o e pouco uso da mesma. 2 2. V (X) ´ por vezes representado por σ 2 , σX , V ar(X), etc. e • Exerc´ ıcio 3.37 — Prove que: V (X) = E [X − E(X)]2 = E(X 2 ) − E 2 (X); E(X 2 ) = V (X) + E 2 (X). • Proposi¸˜o 3.38 — Propriedades da variˆncia ca a A variˆncia de uma v.a. quer discreta, quer cont´ a ınua, goza das propriedades: 1. V (b) = 0, ∀b ∈ I R; 2. V (X) ≥ 0, qualquer que seja a v.a. X; 3. V (aX + b) = a2 V (X), ∀a, b ∈ I R. • 54
  • 60. Exerc´ ıcio 3.39 — Demonstre a Proposi¸˜o 3.38. ca • Exemplo 3.40 — Variˆncia de uma v.a. discreta a Retome o Exemplo 3.33 e assuma que por cada navio que chega diariamente ao porto a administra¸ao do mesmo factura 1200 Euros. Determine o valor esperado e a variˆncia c˜ a da factura¸ao di´ria. c˜ a • V.a. X = n´mero de navios que chegam diariamente ao porto u • F.p. de X P (X = x) = e−2 × 2x ,x x! = 0, 1, 2, . . . • Valor esperado de X +∞ x × P (X = x) E(X) = x=0 +∞ x× = x=0 +∞ e−2 2x x! e−2 × = x=1 2x (x − 1)! +∞ = 2e −2 2x × x=0 x! = 2 • Variˆncia de X a Tendo em conta que V (X) = E(X 2 ) − E 2 (X), (3.20) onde +∞ E(X 2 ) = x2 × P (X = x) x=0 +∞ x2 × = x=0 +∞ e−2 2x x! x[(x − 1) + 1] × = x=1 e−2 2x x! 55
  • 61. +∞ = +∞ e−2 2x e−2 2x + x× x! x=2 (x − 2)! x=0 +∞ = 22 e−2 × 2x + E(X) x=0 x! = 22 + 2, conclui-se que V (X) = 22 + 2 − 22 = 2 = E(X). • Nova v.a. Y = 1200 X = factura¸˜o di´ria. ca a Para a obten¸˜o de E(Y ) e V (Y ) tiraremos partido do facto de Y ser uma fun¸ao ca c˜ linear de X e de algumas propriedades do valor esperado e da variˆncia. a • Valor esperado de Y E(Y ) = E(1200 X) = 1200 × E(X) = 1200 × 2 = 2400 • Variˆncia de Y a V (Y ) = V (1200 X) = 12002 × V (X) = 12002 × 2. • Motiva¸˜o 3.41 — Desvio-padr˜o ca a A variˆncia n˜o ´ expressa nas mesmas unidades que a v.a. X, pelo que ´ costume recorrer a a e e a outra medida de dispers˜o absoluta. Trata-se do desvio-padr˜o definido a seguir. a a • Defini¸˜o 3.42 — Desvio-padr˜o ca a O desvio-padr˜o da v.a. X ´ a raiz quadrada positiva da variˆncia de X: a e a DP (X) = + V (X), (3.21) independentemente de X ser uma v.a. discreta ou cont´ ınua. 56 •
  • 62. Motiva¸˜o 3.43 — Coeficiente de varia¸˜o ca ca Quer a variˆncia, quer do desvio-padr˜o s˜o medidas de dispers˜o absoluta que tˆm em a a a a e conta a ordem de grandeza dos valores que X toma. E parece-nos obvio que um desvio´ padr˜o igual a 10 unidades tenha necessariamente significado distinto caso os valores de a X sejam da ordem das dezenas ou da ordem das dezenas de milhar. Uma sa´ poss´ ıda ıvel ser´ optar pela medida de dispers˜o relativa que se define imediatamente a seguir. a a • Defini¸˜o 3.44 — Coeficiente de varia¸˜o ca ca O coeficiente de varia¸˜o ´ igual a ca e DP (X) , CV (X) = |E(X)| quer X seja uma v.a. discreta, quer seja cont´ ınua, desde que E(X) = 0. (3.22) • Exemplo 3.45 — Coeficiente de varia¸˜o de uma v.a. discreta ca Obtenha o coeficiente de varia¸˜o da factura¸˜o di´ria definida no Exemplo 3.40. ca ca a • V.a. Y = 1200 X = factura¸˜o di´ria. ca a • Coeficiente de varia¸˜o de Y ca DP (Y ) CV (Y ) = |E(Y )| = = V (1200 X) |E(1200 X)| 12002 × V (X) 1200 × |E(X)| DP (X) = |E(X)| = CV (X) √ 2 = . 2 • Este exemplo permite afirmar que o coeficiente de varia¸ao de uma fun¸ao linear de c˜ c˜ X ´ igual ao coeficiente de varia¸˜o de X, ou mais genericamente que e ca • CV (aX + b) = CV (X), i.e., que o coeficiente de varia¸ao ´ invariante a transforma¸oes lineares de v.a. c˜ e c˜ Importa notar que esta propriedade n˜o ´ satisfeita por qualquer das duas medidas de a e dispers˜o absoluta at´ agora consideradas, a variˆncia e o desvio-padr˜o. a e a a 57
  • 63. 3.5 Distribui¸˜o uniforme discreta. ca De salientar que a apresenta¸˜o desta distribui¸ao e das que se seguem respeitar´ um ca c˜ a mesmo figurino: em primeiro lugar, alude-se ` nota¸˜o utilizada para representar a a ca distribui¸ao, de seguida, s˜o referido(s), por esta ordem: o(s) parˆmetro(s) da distribui¸ao; c˜ a a c˜ o contradom´ ınio da v.a. (i.e., os valores poss´ ıveis da v.a.); a fun¸ao de probabilidade; o c˜ valor esperado; e a variˆncia da v.a. Toda esta informa¸˜o ser´ condensada numa tabela. a ca a Motiva¸˜o 3.46 — Distribui¸˜o uniforme discreta ca ca Esta distribui¸ao ´ razo´vel quando a v.a. discreta toma n valores distintos, todos com c˜ e a a mesma probabilidade. Sem perda de generalidade considere-se que esta v.a. toma n valores distintos, x1 , x2 , . . . , xn , em que x1 < x2 < . . . < xn . • Defini¸˜o 3.47 — Distribui¸˜o uniforme discreta ca ca A v.a. discreta X diz-se ter distribui¸ao uniforme discreta no conjunto {x1 , x2 , . . . , xn }, c˜ caso a sua f.p. seja igual a   1, P (X = x) =  x = x1 , x2 , . . . , xn 0, c.c. n (3.23) Neste caso escreve-se X ∼ uniforme discreta({x1 , x2 , . . . , xn }), (3.24) onde “X ∼ . . .” se lˆ, naturalmente, “X tem distribui¸ao...”. e c˜ Uniforme discreta Nota¸˜o ca X ∼ uniforme discreta({x1 , x2 , . . . , xn }) Parˆmetro a {x1 , x2 , . . . , xn } (xi ∈ I i = 1, . . . , n) R, Contradom´ ınio {x1 , x2 , . . . , xn } F.p.   1, x = x ,x ,...,x 1 2 n n P (X = x) =  0, c.c. Valor esperado E(X) = Variˆncia a V (X) = n i=1 xi 1 n 1 n n 2 i=1 xi − 1 n 2 n i=1 xi • 58
  • 64. Exemplo 3.48 — Distribui¸˜o uniforme discreta ca Um conjunto de n amostras de solo — das quais s´ uma est´ contaminada por uma o a perigosa substˆncia qu´ a ımica — chega a um laborat´rio. Admita ainda que a amostra de o solo contaminado n˜o foi etiquetada previamente. Considere agora a v.a. X que representa a o n´mero total de amostras inspeccionadas sem reposi¸˜o at´ ser identificada a amostra u ca e de solo contaminado. (a) Identifique a distribui¸ao de X e desenhe o gr´fico da f.p. desta v.a. c˜ a • V.a. X = n´mero de amostras inspeccionadas sem reposi¸ao at´ a detec¸ao da u c˜ e` c˜ amostra contaminada • Contradom´ ınio de X I X = {1, 2, . . . , n} R • F.p. de X P (X = 1) = P (X = 2) = 1 n n−1 n n−1 n × 1 n−1 n−2 n−1 = 1 n 1 n−2 1 P (X = 3) = × × =n . . .   1 , x = 1, 2, . . . , n n P (X = x) =  0, c.c. De notar que se teve em considera¸ao que a inspec¸ao ´ feita sem reposi¸ao e c˜ c˜ e c˜ que: – X = 1 se a 1a. amostra inspeccionada estiver contaminada; – X = 2 se a 1a. amostra inspeccionada n˜o estiver contaminada mas a 2a. o a estiver; e assim por diante. • Distribui¸˜o de X ca X ∼ uniforme discreta({1, 2, . . . , n}) • Gr´fico da f.p. de X a 59
  • 65. (b) Obtenha a f.d. de X e esboce o respectivo gr´fico. a • F.d. de X FX (x) = P (X ≤ x)   0,      1  ,  n    2   , x<1 1≤x<2 2≤x<3   n−1    n ,     1, n−1≤x<n x≥n =  .n  .  .  0,    =     1, [x] , n x<1 1≤x<n x ≥ n, onde [x] representa a parte inteira do real x. • Gr´fico da f.d. de X a (c) Calcule o valor esperado e a variˆncia desta v.a. a • Nota Relembra-se para o efeito que: n n(n + 1) x = ; 2 x=1 n n(n + 1)(2n + 1) x2 = . 6 x=1 • Valor esperado de X n E(X) = = x × P (X = x) x=1 n x=1 x n n(n + 1)/2 = n n+1 = 2 60
  • 66. • Variˆncia de X a V (X) = E(X 2 ) − E 2 (X) n 2 n+1 2 x=1 x − = n 2 n(n + 1)(2n + 1)/6 (n + 1)2 − = n 4 n + 1 2n + 1 n + 1 = − 2 3 2 n + 1 4n + 2 − 3n − 3 = 2 6 2 n −1 = 12 • Dada a simplicidade da distribui¸ao uniforme discreta a sua f.p., o seu valor esperado c˜ e a sua variˆncia n˜o se encontram no formul´rio dispon´ no final destas notas de apoio, a a a ıvel ao contr´rio do que acontece com qualquer das distribui¸oes apresentadas j´ de seguida. a c˜ a 61
  • 67. 3.6 Distribui¸˜o binomial. ca Antes de passar ` apresenta¸˜o da distribui¸ao binomial ´ necess´rio definir “prova de a ca c˜ e a 13 Bernoulli”. Defini¸˜o 3.49 — Prova de Bernoulli ca Uma e.a. diz-se uma prova de Bernoulli se possuir apenas dois resultados poss´ ıveis: • um sucesso, que ocorre com probabilidade p (0 ≤ p ≤ 1); • um insucesso, que ocorre com probabilidade 1 − p. • Defini¸˜o 3.50 — Distribui¸˜o de Bernoulli ca ca A v.a. • X = n´mero de sucessos numa prova de Bernoulli u diz-se com distribui¸˜o de Bernoulli com parˆmetro p e possui f.p. dada por ca a   P (X = x) =  px (1 − p)1−x , x = 0, 1 0, c.c. (3.25) Bernoulli Nota¸˜o ca X ∼ Bernoulli(p) Parˆmetro a p = P (sucesso) (p ∈ [0, 1]) Contradom´ ınio {0, 1} F.p.   px (1 − p)1−x , x = 0, 1 P (X = x) =  0, c.c. Valor esperado E(X) = p Variˆncia a V (X) = p (1 − p) • Exerc´ ıcio 3.51 — Prove que E(X) = p e V (X) = p (1 − p) quando X ∼ Bernoulli(p). • 13 Jacques Bernoulli (1654–1705). 62
  • 68. Motiva¸˜o 3.52 — Distribui¸˜o binomial ca ca A distribui¸˜o binomial ´ particularmente util na caracteriza¸ao probabil´ ca e ´ c˜ ıstica do n´mero de sucessos em n provas de Bernoulli realizadas de forma independente e com u probabilidade de sucesso comum p. • Defini¸˜o 3.53 — Distribui¸˜o binomial ca ca A v.a. • X = n´mero de sucessos num conjunto de n provas de Bernoulli independentes com u probabilidade de sucesso comum e igual a p diz-se com distribui¸˜o binomial de parˆmetros (n, p) e possui f.p. igual a ca a onde n x = n x  P (X = x) =   0, n! x!(n−x)! px (1 − p)n−x , x = 0, 1, 2, . . . , n (3.26) c.c., representa as combina¸oes de n elementos tomados x a x. c˜ Binomial Nota¸˜o ca X ∼ binomial(n, p) Parˆmetros a n =n´mero de provas de Bernoulli (n ∈ I ) u N p = P (sucesso) (p ∈ [0, 1]) Contradom´ ınio {0, 1, 2, . . . , n} F.p.   n px (1 − p)n−x , x P (X = x) =  0, Valor esperado c.c. E(X) = n p Variˆncia a x = 0, 1, 2, . . . , n V (X) = n p (1 − p) • A v.a. X ∼ binomial(n, p) est´ tamb´m associada ` contagem do n´mero de elementos a e a u com determinada caracter´ ıstica (sucesso), num total de n elementos extra´ ıdos ao acaso e com reposi¸ao. Pode tamb´m ser entendida como a generaliza¸˜o natural da distribui¸ao c˜ e ca c˜ de Bernoulli. Exerc´ ıcio 3.54 — Procure justificar a express˜o da f.p. da v.a. com distribui¸ao a c˜ binomial(n, p) e demonstre que o valor esperado e a variˆncia desta v.a. s˜o iguais a a a E(X) = n p e V (X) = n p (1 − p). • 63
  • 69. Nota 3.55 — F.d. da v.a. binomial A f.d. da v.a. X ∼ binomial(n, p) ´ dada por e 0,    FX (x) = P (X ≤ x) =     1, [x] i=0 n i i n−i p (1 − p) x<0 , 0≤x<n (3.27) x ≥ n, onde [x] representa a parte inteira do real x.14 Esta fun¸ao est´ tabelada para alguns pares de valores de n e p; refira-se que os c˜ a valores de n e p n˜o excedem (nas tabelas dispon´ a ıveis para esta disciplina) 20 e 0.5, respectivamente. • Exemplo 3.56 — Utiliza¸˜o das tabelas da f.d. da v.a. binomial ca V.a. x Valor tabelado de FX (x) = P (X ≤ x) X ∼ binomial(n = 5, p = 0.05) 0 FX (0) = 0.7738 X ∼ binomial(n = 9, p = 0.1) 4 FX (4) = 0.9991 X ∼ binomial(n = 10, p = 0.4) 8 FX (8) = 0.9983 X ∼ binomial(n = 20, p = 0.5) 11 FX (11) = 0.7483 • Exemplo 3.57 — Distribui¸˜o binomial ca A probabilidade de as leis de Kirchhoff virem a ser violadas, durante um teste laboratorial a que se submete certo tipo de indutor, ´ igual a 0.1. e Qual a probabilidade de esta lei vir a ser violada mais de 4 vezes em 9 destes testes laboratoriais? • V.a. X = n´mero de viola¸˜es das leis de Kirchhoff em 9 testes laboratoriais u co • Distribui¸˜o de X ca X ∼ binomial(n, p) • Parˆmetros a n = 9 testes p = P (viola¸ao leis Kirchhoff em teste laboratorial) = 0.1 c˜ 14 Relembre-se que a parte inteira do real x corresponde ao maior inteiro menor ou igual a x. Assim, [0.3] = 0, [2.8] = 2, [−0.7] = −1. 64
  • 70. • F.p. de X P (X = x) = 9 x 0.1x (1 − 0.1)9−x , x = 0, 1, 2, . . . , 9 • Probabilidade pedida = 1 − P (X ≤ 4) = 1 − FX (4) = P (X > 4) 1 − Fbinomial(9,0.1) (4) tabela = 1 − 0.9991 = 0.0009. • Exerc´ ıcio 3.58 — Represente graficamente a f.d. da v.a. X ∼ binomial(4, 0.1), recorrendo `s tabelas dispon´ a ıveis, e obtenha a f.p. desta v.a. ` custa dos valores obtidos a para a f.d. • Proposi¸˜o 3.59 — Distribui¸˜o binomial ca ca Seja X o n´mero de sucessos em n provas de Bernoulli independentes com probabilidade u de sucesso p, i.e., X ∼ binomial(n, p). Ent˜o o n´mero de insucessos nessas mesmas n a u provas de Bernoulli, Y , verifica: • Y = n − X ∼ binomial(n, 1 − p); • FY (y) = 1 − FX (n − y − 1). • Exerc´ ıcio 3.60 — Demonstre a segunda das propriedades da Proposi¸˜o 3.59 e ilustre ca a sua utiliza¸ao na obten¸˜o de valores da f.d. de v.a. binomiais com probabilidade de c˜ ca sucesso superior a 0.5, fazendo uso das tabelas dispon´ ıveis. • V.a. X ∼ binomial(n, p) • Nova v.a. Y =n−X 65
  • 71. • Demonstra¸˜o da 2a. propriedade ca FY (y) = P (Y ≤ y) = P (n − X ≤ y) = P (X ≥ n − y) = 1 − P (X ≤ n − y − 1) = 1 − FX (n − y − 1) • Ilustra¸˜o da 2a. propriedade ca V.a. y FY (y) = P (X ≤ n − y − 1) Y ∼ bin(5, 0.95) 4 FY (4) = 1 − Fbin(5,1−0.95) (5 − 4 − 1) = 1 − 0.7738 = 0.2262 Y ∼ bin(10, 0.6) 1 FY (1) = 1 − Fbin(10,1−0.6) (10 − 1 − 1) = 1 − 0.9983 = 0.0017 • 66
  • 72. 3.7 Distribui¸˜o geom´trica. ca e Motiva¸˜o 3.61 — Distribui¸˜o geom´trica ca ca e A distribui¸˜o binomial(n, p) est´ associada a contagem do n´mero de sucessos em n ca a ` u provas de Bernoulli independentes que possuem em qualquer dos casos probabilidade de sucesso igual a p. Caso estejamos interessados em contabilizar o • o n´mero total de provas de Bernoulli realizadas at´ ao registo do primeiro sucesso, u e passamos a lidar com uma v.a. discreta com distribui¸ao distinta da binomial. c˜ • Defini¸˜o 3.62 — Distribui¸˜o geom´trica ca ca e Seja • X = n´mero de provas de Bernoulli (independentes com probabilidade de sucesso u comum e igual a p) realizadas at´ ` ocorrˆncia do primeiro sucesso. ea e Ent˜o a v.a. X diz-se com distribui¸ao geom´trica com parˆmetro p e a sua f.p. ´ dada a c˜ e a e por   (1 − p)x−1 p, x = 1, 2, 3, . . . P (X = x) =  0, c.c. (3.28) Geom´trica e Nota¸˜o ca X ∼ geom´trica(p) e Parˆmetro a p = P (sucesso) (p ∈ [0, 1]) Contradom´ ınio I = {1, 2, 3, . . .} N F.p.   (1 − p)x−1 p, P (X = x) =  0, Valor esperado E(X) = V (X) = c.c. 1 p Variˆncia a x = 1, 2, 3, . . . 1−p p2 • A distribui¸˜o geom´trica ´ por vezes designada por distribui¸˜o discreta do tempo de ca e e ca espera pelo primeiro sucesso. 67
  • 73. Nota 3.63 — F.d. da v.a. geom´trica e A f.d. da v.a. X ∼ geom´trica(p) n˜o est´ tabelada pois obt´m-se sem grande dificuldade, e a a e por estar a lidar-se com uma s´rie geom´trica. Com efeito, e e   FX (x) = P (X ≤ x) =  0, [x] i=1 (1 i−1 − p) x<1 p = 1 − (1 − p) , x ≥ 1, onde [x] representa novamente a parte inteira do real x. [x] (3.29) • Exerc´ ıcio 3.64 — Justifique as express˜es da f.p. e da f.d. desta v.a. Obtenha tamb´m o e o seu valor esperado e a sua variˆncia. a • Exemplo 3.65 — Distribui¸˜o geom´trica ca e Estudos preliminares indicaram que a probabilidade de ser detectada a presen¸a de alto c teor de metais pesados numa amostra de solo proveniente de certo local ´ de 0.01.15 e (a) Obtenha o valor esperado do n´mero total de amostras seleccionadas ao acaso at´ u e que seja detectada a primeira amostra de solo com alto teor de metais pesados. • V.a. X = n´mero total de amostras seleccionadas at´ que seja detectada a primeira u e amostra de solo com alto teor de metais pesados • Distribui¸˜o de X ca X ∼ geom´trica(p) e • Parˆmetro a p = 0.01 • F.p. de X P (X = x) = (1 − 0.01)x−1 × 0.01, x = 1, 2, 3, . . . • Valor esperado de X E(X) f orm. = = = 15 1 p 1 0.01 100 amostras. ´ Adaptado do Exame de 2a. Epoca, 4 de Fevereiro de 2003. 68
  • 74. (b) Determine a probabilidade de serem inspeccionadas mais de 100 + 50 amostras at´ a e` detec¸ao da primeira amostra de solo com alto teor de metais pesados, sabendo que c˜ j´ foram inspeccionadas mais de 100 amostras sem que semelhante detec¸ao tivesse a c˜ ocorrido. • Probabilidade pedida Tirando partido da express˜o geral da f.d. da v.a. geom´trica tem-se a e sucessivamente: P (X > 100 + 50, X > 100) P (X > 100 + 50|X > 100) = P (X > 100) P (X > 100 + 50) = P (X > 100) 1 − P (X ≤ 100 + 50) = 1 − P (X ≤ 100) 1 − [1 − (1 − 0.01)100+50 ] = 1 − [1 − (1 − 0.01)100 ] (1 − 0.01)100+50 = (1 − 0.01)100 = (1 − 0.01)50 = P (X > 50). Este resultado deve-se a uma propriedade desta distribui¸ao que ser´ enunciada c˜ a de seguida. • Proposi¸˜o 3.66 — Falta de mem´ria da distribui¸˜o geom´trica ca o ca e Seja X ∼ geom´trica(p). Ent˜o e a P (X > k + x|X > k) = P (X > x), ∀k, x ∈ I N, (3.30) Equivalentemente, a v.a. X − k|X > k, que representa o n´mero de provas de Bernoulli u adicionais sabendo que j´ foram efectuadas mais de k provas, tamb´m possui distribui¸ao a e c˜ geom´trica com parˆmetro p: e a X − k|X > k ∼ geom´trica(p), ∀k ∈ I e N. (3.31) • Esta propriedade ´ denominada de “falta de mem´ria” uma vez que (3.31) sugere um e o recome¸o probabil´ c ıstico. 69
  • 75. 3.8 Distribui¸˜o hipergeom´trica. ca e Motiva¸˜o 3.67 — Distribui¸˜o hipergeom´trica ca ca e A distribui¸˜o binomial(n, p) est´ associada a contagem do n´mero de sucessos, em n ca a ` u extrac¸oes ao acaso com reposi¸˜o. Ao considerar-se um c˜ ca • processo de extrac¸ao casual sem reposi¸ao, c˜ c˜ passamos a lidar com uma v.a. discreta com distribu¸ao distinta da binomial. c˜ • Defini¸˜o 3.68 — Distribui¸˜o hipergeom´trica ca ca e Considere-se que • N = n´mero total de elementos de uma popula¸˜o (dimens˜o da pop.); u ca a • M = n´mero de elementos dessa popula¸ao que possuem certa caracter´ u c˜ ıstica (sucesso); • n = n´mero de extrac¸˜es sem reposi¸˜o. u co ca Ent˜o a v.a. a • X = n´mero de elementos com certa caracter´ u ıstica (sucesso), em n extra´ ıdos ao acaso sem reposi¸ao da popula¸˜o acima c˜ ca diz-se com distribui¸ao hipergeom´trica com parˆmetros (N, M, n) e a sua f.p. pode c˜ e a encontrar-se na tabela abaixo a par de outras caracter´ ısticas desta distribui¸ao. c˜ Hipergeom´trica e Nota¸˜o ca X ∼ hipergeom´trica(N, M, n) e Parˆmetros a N (N ∈ I ) N M (M ∈ I M ≤ N ) N, n (n ∈ I n ≤ N ) N, Contradom´ ınio {max{0, n − (N − M )}, . . . , min{n, M }} F.p. P (X = x) =   Valor esperado E(X) = n Variˆncia a V (X) = n M N M N N −M n−x  M  x  / N , n x = max{0, n − (N − M )}, . . . , min{n, M } 0, c.c. 1− M N N −n N −1 • 70
  • 76. Nota 3.69 — Distribui¸˜o hipergeom´trica ca e X corresponde ao n´mero de sucessos num conjunto de n provas de Bernoulli u dependentes com probabilidade de sucesso comum e igual a p = M/N . E(X) e V (X) fazem lembrar o valor esperado e a variˆncia da distribui¸ao binomial a c˜ (n, p) com factores de correc¸ao que se devem ` n˜o reposi¸˜o das extrac¸oes. Com efeito, c˜ a a ca c˜ sob certas condi¸oes, a (f.p./f.d. da) v.a. hipergeom´trica(N, M, n) pode ser aproximada c˜ e M • pela (f.p./f.d. d)a v.a. binomial(n, N ), como veremos mais tarde. Exemplo 3.70 — Distribui¸˜o hipergeom´trica ca e Justifique a express˜o geral da f.p., bem como o contradom´ a ınio da v.a. hipergeom´trica. e Na fase de concep¸ao de um sistema de controlo de qualidade do fabrico, foram c˜ escolhidos 100 cabos dos quais apenas dois apresentavam desvios superiores a 9.8 m´ ıcrons. Se desses 100 cabos forem seleccionados 10 ao acaso e sem reposi¸ao, qual ´ a probabilidade c˜ e de mais do que um ter um desvio superior a 9.8 m´ ıcrons? Indique tamb´m o valor esperado e do n´mero de cabos, entre esses 10, com um desvio superior a 9.8 m´ u ıcrons.16 • V.a. X = n´mero de cabos com um desvio superior a 9.8 m´ u ıcrons, em 10 cabos seleccionados sem reposi¸ao (de lote de 100 cabos dos quais apenas dois apresentam c˜ desvios superiores a 9.8 m´ ıcrons) • Distribui¸˜o de X ca X ∼ hipergeom´trica(N, M, n) e • Parˆmetros a N = 100 M =2 n = 10 • F.p. de X P (X = x) = 16 2 (x) (100−2) 10−x , x = 0, 1, 2 (100) 10 Adaptado do Teste A, 11 de Novembro de 2006. 71
  • 77. • Probabilidade pedida P (X > 1) = P (X = 2) = = 2 2 100−2 10−2 100 10 1 110 • Valor esperado de X E(X) f orm. = = = M N 2 10 × 100 0.2 n× • 72
  • 78. 3.9 Distribui¸˜o de Poisson. ca Motiva¸˜o 3.71 — Distribui¸˜o de Poisson ca ca A distribui¸˜o de Poisson ´ frequentemente usada na contagem de ocorrˆncias de certo tipo ca e e de evento em per´ ıodos fixos de tempo, eventos tais como: chegadas, partidas, acidentes, falhas de equipamento, testemunhos verdadeiros em tribunal, n´mero de excedˆncias de u e n´ ıveis elevados de pluviosidade/ondas/mar´s, n´mero de colis˜es de detritos espaciais e u o com diˆmetro superior a 1cm num sat´lite numa regi˜o orbital abaixo dos 2.000Km de a e a altitude, etc. A distribui¸ao de Poisson foi originalmente introduzida em 1837 por Sim´on Dennis c˜ e Poisson (1781–1840) como distribui¸ao limite da distribui¸ao binomial. Anos mais tarde c˜ c˜ von Bortkiewicz (1898) recorre ` distribui¸˜o de Poisson para descrever o comportamento a ca probabil´ ıstico do n´mero de mortes por coices de cavalo no ex´rcito prussiano. u e • Defini¸˜o 3.72 — Distribui¸˜o de Poisson ca ca A v.a. X com distribui¸˜o tem a particularidade de possuir o valor esperado e a variˆncia ca a iguais ao parˆmetro que define a distribui¸ao, λ, e f.p. na tabela abaixo a c˜ Poisson Nota¸˜o ca X ∼ Poisson(λ) Parˆmetro a λ (λ ∈ I + ) R Contradom´ ınio I 0 N F.p.   e−λ λx , x! P (X = x) =  0, Valor esperado c.c. E(X) = λ Variˆncia a x = 0, 1, 2, . . . V (X) = λ • Nota 3.73 — F.d. da v.a. de Poisson A f.d. da v.a. X ∼ Poisson(p),   FX (x) = P (X ≤ x) =  0, [x] −λ λi , i=0 e i! x<0 x≥0 (onde [x] ´ a parte inteira do real x), est´ tabelada para alguns valores de λ. e a 73 (3.32) •
  • 79. Exemplo 3.74 — Utiliza¸˜o das tabelas da f.d. da v.a. de Poisson ca V.a. x Valor tabelado de FX (x) = P (X ≤ x) X ∼ Poisson(λ = 0.05) 0 FX (0) = 0.9512 X ∼ Poisson(λ = 3) 1 FX (1) = 0.1991 X ∼ Poisson(λ = 12) 1 FX (1) = 0.0001 X ∼ Poisson(λ = 20) 14 FX (14) = 0.1049 • Exemplo 3.75 — Distribui¸˜o de Poisson ca A procura semanal de uma luxuosa marca de autom´vel segue uma lei de Poisson. Sabe-se o ainda que a probabilidade de numa semana n˜o existir procura ´ igual a e−3 .17 a e (a) Determine a probabilidade de a procura semanal exceder pelo menos 2 autom´veis. o • V.a. X = procura semanal de autom´veis da referida marca o • Distribui¸˜o de X ca X ∼ Poisson(λ) • F.p. de X P (X = x) = e−λ λx , x! x = 0, 1, 2, . . . • Parˆmetro a λ : P (X = 0) = e−3 λ0 e−λ = e−3 0! λ=3 • Probabilidade pedida P (X ≥ 2) = 1 − P (X < 2) = 1 − P (X ≤ 1) = 1 − FP oisson(3) (1) tabela = = 17 1 − 0.1991 0.8009. ´ Adaptado do Exame de 2a. Epoca, 21 de Julho de 2001. 74
  • 80. (b) Qual a probabilidade de a procura em 4 semanas ser de pelo menos 2 autom´veis? o • V.a. Y = procura de autom´veis da referida marca em 4 semanas o • Distribui¸˜o de Y ca Y ∼ Poisson(4 × λ) • F.p. de Y P (Y = y) = e−12 12y , y! y = 0, 1, 2, . . . • Probabilidade pedida P (Y ≥ 2) = tabela 1 − FP oisson(12) (1) = 1 − 0.0001 = 0.9999. Esta al´ ınea ilustra a propriedade reprodutiva da v.a. de Poisson (ver Cap. 5). • 75
  • 81. 3.10 Algumas notas sobre an´lise combinat´ria a o • Permuta¸oes de n elementos (n!) c˜ N´mero de formas distintas de preenchimento de caixa com n compartimentos, u dispondo de n elementos e n˜o havendo a possibilidade de repeti¸˜o no a ca preenchimento. Sequˆncias de n elementos distintos... e • Arranjos com repeti¸˜o de n elementos tomados x a x (nx ) ca N´mero de formas distintas de preenchimento de caixa com x compartimentos, u dispondo de n elementos e havendo a possibilidade de repeti¸˜o no preenchimento. ca Sequˆncias de x elementos... e • Arranjos sem repeti¸˜o de n elementos tomados x a x ca n! (n−x)! N´mero de formas distintas de preenchimento de caixa com x compartimentos, u dispondo de n elementos e n˜o havendo a possibilidade de repeti¸˜o no a ca preenchimento. Sequˆncias de x elementos distintos... e • Combina¸oes de n elementos tomados x a x c˜ n x = n! x!(n−x)! N´mero de conjuntos de cardinal x (logo com elementos distintos) que podem ser u formados com n elementos. Conjuntos de cardinal x... • Permuta¸˜es de n elementos de k tipos distintos co n! n1 ! n2 ! ... nk ! N´mero de formas distintas de preenchimento de caixa com n compartimentos, u dispondo de n elementos de k tipos distintos, onde ni representa o n´mero de u k elementos do tipo i, i = 1, 2, . . . , k, e i=1 ni = n. Sequˆncias de n elementos de k tipos... e • Bin´mio de Newton o (a + b)n = n x=1 n x ax bn−x . 76
  • 82. Cap´ ıtulo 4 Vari´veis aleat´rias e distribui¸oes a o c˜ cont´ ınuas 4.1 Vari´veis aleat´rias cont´ a o ınuas. Motiva¸˜o 4.1 — V.a. cont´ ca ınua Muitas quantidades de interesse s˜o expressas por valores num´ricos. S˜o disso exemplo a e a • a vibra¸ao produzida por um motor (em hertz por unidade de tempo), a deflex˜o c˜ a de uma mola (em metros), o tempo de repara¸˜o de pe¸a mecˆnica, ca c a • a intensidade da corrente el´ctrica em certa zona de um circuito (em amperes), a e impedˆncia de um sistema (em ohm), a • a temperatura, o volume da voz, a concentra¸˜o de um poluente, etc. ca Em qualquer dos casos ´ perfeitamente razo´vel assumir que e a • o conjunto de valores poss´ ıveis ´ infinito n˜o numer´vel, e a a por exemplo, um intervalo real [a, b], ou I ou I + . R, R • O facto de o contradom´ ınio da v.a. X ser infinito n˜o numer´vel ´ manifestamente a a e insuficiente para descrever rigorosamente uma v.a. cont´ ınua como veremos j´ de seguida. a 77
  • 83. Defini¸˜o 4.2 — V.a. cont´ ca ınua A v.a. X diz-se cont´ ınua, caso • possua f.d. FX (x) = P (X ≤ x) cont´ ınua em I R e exista uma fun¸ao real de vari´vel real, fX (x), que verifique: c˜ a • fX (x) ≥ 0, ∀x ∈ I R • FX (x) = P (X ≤ x) = x −∞ • fX (t)dt. A fun¸ao fX (x) ´ denominada de fun¸˜o densidade de probabilidade e goza de um c˜ e ca conjunto de propriedades descritas na sec¸ao seguinte. c˜ 78
  • 84. 4.2 Fun¸˜o de densidade de probabilidade. ca Motiva¸˜o 4.3 — Fun¸˜o de densidade de probabilidade ca ca Ao lidarmos com uma v.a. discreta podemos calcular a f.p. P (X = x). No entanto, tal ´ c´lculo n˜o faz qualquer sentido ao lidar-se com a v.a. cont´ a a ınua X. E razo´vel sim a • calcular a probabilidade de X pertencer a um intervalo e definir o an´logo cont´ a ınua da f.p., a fun¸ao de densidade de probabilidade (f.d.p.). c˜ • Proposi¸˜o 4.4 — Fun¸˜o de densidade de probabilidade ca ca Tendo em conta as propriedades da f.d. e a rela¸ao entre esta fun¸˜o e a f.d.p., deduzem-se c˜ ca as seguintes propriedades para fX (x). Para al´m de verificar e • fX (x) ≥ 0, ∀x ∈ I R x −∞ • FX (x) = P (X ≤ x) = fX (t)dt, a f.d.p. satisfaz • +∞ −∞ • b a fX (x)dx = 1 fX (x)dx = P (a < X ≤ b), ∀a < b. • Nota 4.5 — F.d.p. Para v.a. cont´ ınuas tem-se: • P (X = x) = 0, ∀x ∈ I i.e., a probabilidade de a v.a. tomar o valor real x ´ nula R, e (o evento ´ quase-imposs´ e ıvel!) • P (a < X ≤ b) = P (a < X < b) = P (a ≤ X ≤ b) = P (a ≤ X < b) b = a fX (x)dx = FX (b) − FX (a), ∀a < b, correspondendo ` area sob o gr´fico da f.d.p. entre a e b (gr´fico!). a´ a a • Nota 4.6 — Interpreta¸˜o geom´trica da f.d.p. ca e De notar que P a− 2 <X ≤a+ 2 = a+ 2 a− 2 fX (x) dx × fX (a). (4.1) fX (a) d´, portanto, a “ideia” da “possibilidade” de ocorrˆncia de valores pr´ximos do a e o ponto a.1 • 1 Que nunca deve confundir-se com a probabilidade de ocorrer {X = a}, probabilidade que se sabe ser nula para v.a. cont´ ınuas. 79
  • 85. 4.3 Fun¸˜o de distribui¸˜o. ca ca Motiva¸˜o 4.7 — F.d. de v.a. cont´ ca ınua Tal como no caso discreto justifica-se o c´lculo de probabilidades do tipo a P (X ≤ x), para qualquer x ∈ I ou seja, ´ pertinente definir a f.d. da v.a. cont´ R, e ınua X. • Defini¸˜o 4.8 — F.d. de v.a. cont´ ca ınua Seja X uma v.a. cont´ ınua. Ent˜o a sua f.d. ´ dada por a e FX (x) = P (X ≤ x) x = −∞ fX (t)dt, x ∈ I R (4.2) ´ = Area sob o gr´fico da f.d.p. de X entre − ∞ e x. a • Exemplo 4.9 — F.d. de v.a. cont´ ınua Assuma que o tempo (em anos) entre duas colis˜es consecutivas de detritos espaciais com o diˆmetro maior que 1mm num sat´lite em MEO2 ´ uma v.a. cont´ a e e ınua com f.d.p. fX (x) =    0, x<0 −0.4x 0.4 e , x ≥ 0. (4.3) (a) Ap´s ter feito o gr´fico da f.d.p. de X, calcule a probabilidade do tempo entre duas o a colis˜es consecutivas exceder 1 ano e trˆs meses. o e • V.a. X = tempo entre duas colis˜es consecutivas... (em anos) o • F.d.p. de X fX (x) =   0, x<0  0.4 e−0.4x , x ≥ 0. • Gr´fico da f.d.p. de X a 2 Medium Earth Orbit, associada a altitudes entre 2.000Km e 34.786Km. 80
  • 86. • Probabilidade pedida +∞ P (X > 1.25) = 1.25 +∞ = fX (x) dx 0.4 e−0.4x dx 1.25 = −e−0.4x +∞ 1.25 = −0 + e−0.4×1.25 = e−0.5 . (b) Determine a f.d. de X e esboce o respectivo gr´fico. a • F.d. de X Tal como no caso discreto talvez n˜o seja m´ ideia come¸ar-se por preencher a a c a tabela abaixo com alguns valores da f.d. de X para depois determinar-se a express˜o geral da f.d. de X. a FX (x) = P (X ≤ x) = x -1.5 x −∞ fX (t)dt Esquema −1.5 −∞ fX (t)dt −1.5 −∞ 0 dt FX (−1.5) = = =0 1.25 FX (1.25) = = = = x>0 FX (x) = = = = 1.25 −∞ fX (t)dt 0 1.25 0.4 e−0.4t dt −∞ 0 dt + 0 1.25 −e−0.4t 0 1 − e−0.5 x −∞ fX (t)dt 0 x −0.4t dt −∞ 0 dt + 0 0.4 e x −e−0.4t 0 1 − e−0.4 x Deste modo conclui-se que: FX (x) =    0, x<0 −0.4x 1−e , x ≥ 0. • Gr´fico da f.d. de X a • 81
  • 87. Proposi¸˜o 4.10 — Propriedades da f.d. de v.a. cont´ ca ınua A f.d. da v.a. cont´ ınua X, FX (x), ´ uma: e 1. Fun¸ao cont´ c˜ ınua, logo cont´ ınua quer a direita,3 quer a esquerda, ou seja, FX (x) = ` ` + − FX (x ) = FX (x ), ∀x ∈ I R; 2. Fun¸ao mon´tona n˜o decrescente de x. c˜ o a A f.d. de uma v.a cont´ ınua X verifica tamb´m: e 3. 0 ≤ FX (x) ≤ 1; 4. FX (−∞) = limx→−∞ FX (x) = 0; 5. FX (+∞) = limx→+∞ FX (x) = 1; 6. P (X ≤ x) = P (X < x) = FX (x); 7. P (X > x) = 1 − FX (x); e ainda, para a < b, 8. P (a < X ≤ b) = P (a < X < b) = P (a ≤ X ≤ b) = P (a ≤ X < b) b = a fX (x)dx = FX (b) − FX (a), ∀a < b, • como, ali´s, j´ se tinha referido. a a Nota 4.11 — Rela¸˜o entre a f.d.p. e a f.d. ca ´ E poss´ obter a f.d.p. derivando a f.d.: ıvel fX (x) = d FX (x) . dx (4.4) • 3 Tal como acontece com a f.d. de qualquer v.a. discreta. 82
  • 88. Exemplo 4.12 — F.d. de v.a. cont´ ınua (e n˜o s´) a o O tempo que uma viatura de uma luxuosa marca leva a atingir 100 Km/h (em segundos) ´ uma vari´vel aleat´ria X com f.d.p.4 e a o   2×4.52 , fX (x) =  x3 0, x ≥ 4.5 c.c. (a) Determine a probabilidade de uma viatura seleccionada ao acaso atingir 100 Km/h em mais de 7 segundos e como tal necessitar de uma afina¸˜o. ca • V.a. X = tempo (em segundos) que uma viatura leva a atingir100Km/h • F.d.p. de X   2×4.52 , fX (x) =  x3 0, x ≥ 4.5 c.c. • Probabilidade pedida +∞ P (X > 7) = fX (x) dx 7 +∞ = 7 2 × 4.52 dx x3 +∞ 4.52 = − 2 x 7 2 4.5 = 49 0.4133. (b) Qual a probabilidade de pelo menos duas viaturas necessitarem de afina¸˜o, de entre ca um conjunto de 10 seleccionadas ao acaso da produ¸ao di´ria? c˜ a • Nova v.a. Y = n´mero de viaturas que necessitam de afina¸ao, em 10 seleccionadas ao u c˜ 5 acaso • Distribui¸˜o de Y ca Y ∼ binomial(n, p) 4 5 Adaptado do Teste A, 22 de Maio de 2006. Admitindo independˆncia entre os tempos a as diferentes viaturas atingem os 100Km/h. e 83
  • 89. • Parˆmetros a n =10 viaturas p = P (viatura necessitar de afina¸˜o) = P (X > 7) ca 0.4133 • F.p. de Y P (Y = y) = 10 y 0.4133y (1 − 0.4133)10−y , y = 0, 1, 2, . . . , 10 • Probabilidade pedida P (Y ≥ 2) = 1 − P (Y ≤ 1) 1 = 1− y=0 10 0.4133y (1 − 0.4133)10−y y = 1 − (1 − 0.4133)10 + 10 × 0.4133 × (1 − 0.4133)9 ) = 0.9612. Uma vez que a probabilidade obtida ´ elevad´ e ıssima, alerta-se para a necessidade de uma melhoria do processo de produ¸˜o, de modo a diminuir o n´mero ca u esperado de viaturas que necessitam de afina¸ao E(Y ) = n p = 10 × 0.4133 = c˜ 4.133 viaturas. • 84
  • 90. 4.4 Valor esperado, variˆncia e algumas das suas a propriedades. Moda e quantis. Motiva¸˜o 4.13 — Parˆmetros ca a Tal como no caso das v.a. discretas ´ importante calcular medidas sum´rias de e a • Localiza¸ao central c˜ • Localiza¸ao n˜o central c˜ a • Dispers˜o a capazes de caracterizar — embora parcialmente — algum aspecto de uma v.a. X cont´ ınua. A defini¸ao de qualquer destes parˆmetros ´ an´loga ao caso discreto: onde t´ c˜ a e a ınhamos • x∈I R ou P (X = x) passamos a ter • +∞ −∞ • dx ou fX (x), respectivamente. Ao invocar esta analogia escusar-nos-emos a fazer qualquer tipo de motiva¸ao adicional c˜ a estes parˆmetros ou repetir coment´rios j´ efectuados sobre estes parˆmetros no cap´ a a a a ıtulo anterior. Defini¸˜o 4.14 — Valor esperado de v.a. cont´ ca ınua O valor esperado da v.a. cont´ ınua X ´ igual a e +∞ E(X) = −∞ x fX (x) dx. (4.5) • Nota 4.15 — Valor esperado de v.a. cont´ ınua 1. E(X) = +∞ −∞ x fX (x) dx = 2. E(X) existe sse +∞ −∞ x∈I X R x fX (x) dx. |x| fX (x) dx, i.e., sse o integral for absolutamente convergente. 3. Ao lidarmos com v.a. cont´ ınuas E(X) ∈ I X , i.e., o valor esperado de X pertence, R de um modo geral, ao conjunto de valores poss´ ıveis de X.6 • 6 H´ eventuais excep¸˜es: basta pensar numa v.a. cont´ a co ınua que tome valores nos intervalos disjuntos 1 [0, 10] e [20, 30] e possua f.d.p. constante e igual a 20 em qualquer dos dois intervalos. 85
  • 91. Proposi¸˜o 4.16 — Propriedades do valor esperado de v.a. cont´ ca ınua Tal como no caso discreto, o valor esperado da v.a. cont´ ınua X goza das duas seguintes propriedades: 1. E(b) = b, ∀b ∈ I R; 2. E(aX + b) = aE(X) + b, ∀a, b ∈ I (operador linear). R E para al´m disso satisfaz as propriedades: e 3. Seja Y = ψ(X) uma v.a. fun¸ao (mensur´vel) de X. Ent˜o c˜ a a +∞ E(Y ) = E[ψ(X)] = −∞ ψ(x) fX (x) dx. (4.6) 4. Seja X uma v.a. real n˜o negativa (resp. positiva), i.e., I X = I 0 = [0, +∞) (resp. a R R+ I X = I + = (0, +∞)). Ent˜o R R a +∞ +∞ P (X > x) dx = E(X) = 0 0 [1 − FX (x)] dx. (4.7) • Exemplo 4.17 — Valor esperado de v.a. cont´ ınua Calcule o valor esperado do tempo entre duas colis˜es consecutivas, definido no Exemplo o 4.9. • V.a. X =tempo (em anos) entre duas colis˜es consecutivas... o • F.d.p. de X fX (x) =   0, x<0 −0.4x  0.4 e , x ≥ 0. • Valor esperado de X Integrando por partes7 obt´m-se: e 7 u=x v = 0.4 e−0.4x u =1 v = −e−0.4x 86
  • 92. +∞ E(X) = −∞ 0 = x × fX (x) dx +∞ 0 dx + −∞ = −x×e 0 −0.4x +∞ 0 −0.4x +∞ = 0− x × 0.4 e−0.4x dx +∞ + e−0.4x dx 0 e 0.4 0 1 = 0.4 = 2.5 anos. • Defini¸˜o 4.18 — Moda de v.a. cont´ ca ınua A moda da v.a. cont´ ınua X, mo, est´ associada ao ponto de m´ximo da f.d.p. de X, ou a a seja, mo : fX (mo) = max fX (x). x (4.8) • Nota 4.19 — Moda de v.a. cont´ ınua De referir que: • tal como no caso das v.a. discretas, a moda de uma v.a. cont´ ınua pode n˜o ser unica a ´ como ´ o caso das v.a. definidas em intervalos finitos e com f.d.p. constante nesses e mesmos intervalos; • a moda de uma v.a. cont´ ınua obt´m-se recorrendo de um modo geral as t´cnicas de e ` e maximiza¸ao de fun¸˜es: c˜ co mo :   dfX (x) dx  = 0 (ponto de estacionaridade) x=mo X (x) 2 dx x=mo d2 f < 0 (ponto de m´ximo). a (4.9) • Defini¸˜o 4.20 — Mediana de v.a. cont´ ca ınua Tal como acontece no caso discreto, a mediana da v.a. cont´ ınua X, me, verifica a dupla 1 1 desigualdade 2 ≤ FX (me) ≤ 2 + P (X = me). Mas como P (X = me) = 0 no caso cont´ ınuo a mediana ´ definida por e 1 me : FX (me) = . (4.10) 2 • 87
  • 93. Defini¸˜o 4.21 — Quantil de probabilidade p de v.a. cont´ ca ınua Analogamente, o quantil de probabilidade (ou quantil de ordem) p (0 < p < 1) da v.a. cont´ ınua X, χp , define-se a custa da equa¸ao ` c˜ χp : FX (χp ) = p. (4.11) • Exemplo 4.22 — Moda, mediana e terceiro quartil de v.a. cont´ ınua Retome o Exemplo 4.9 e obtenha a moda, a mediana e o terceiro quartil do tempo entre colis˜es consecutivas de detritos espaciais num sat´lite em MEO. o e • V.a. X = tempo entre duas colis˜es consecutivas... (em anos) o • F.d.p. de X   0, x<0 fX (x) =  0.4 e−0.4x , x ≥ 0. • Moda de X mo = mo(X) = 0 j´ que fX (x) ´ uma fun¸˜o decrescente em I 0 . a e ca R+ • Mediana de X Tirando partido do facto da f.d. de X ser igual a   0, x<0 FX (x) =  1 − e−0.4x , x ≥ 0 logo se conclui que a mediana da v.a. X ´ dada por e me : FX (me) = 1/2 −0.4 me 1−e = 1/2 1 me = − 0.4 ln(1 − 1/2) 1.73 anos. • Terceiro quartil de X −1 Designe-se este quartil por FX (3/4). Ent˜o a −1 −1 FX (3/4) : FX [FX (3/4)] = 3/4 −1 1 FX (3/4) = − 0.4 ln(1 − 3/4) 3.47 anos −1 −1 e note-se que P [X ≤ FX (3/4)] = 3/4 e P [X ≥ FX (3/4)] = 1/4. 88 •
  • 94. Defini¸˜o 4.23 — Variˆncia de v.a. cont´ ca a ınua A variˆncia da v.a. cont´ a ınua X ´ igual a e V (X) = E(X 2 ) − E 2 (X), onde E(X 2 ) = +∞ −∞ (4.12) x2 fX (x) dx e E 2 (X) = [ +∞ −∞ x fX (x) dx]2 . • Nota 4.24 — Propriedades da variˆncia a Relembre-se que a variˆncia de uma v.a. quer discreta, quer cont´ a ınua, goza das propriedades: 1. V (b) = 0, ∀b ∈ I R 2. V (X) ≥ 0, qualquer que seja a v.a. X 3. V (aX + b) = a2 V (X), ∀a, b ∈ I R. • Defini¸˜o 4.25 — Desvio-padr˜o de v.a. cont´ ca a ınua Escusado ser´ dizer que o desvio-padr˜o da v.a. cont´ a a ınua X ´ a raiz quadrada positiva da e variˆncia de X: a DP (X) = + V (X). (4.13) • Defini¸˜o 4.26 — Coeficiente de varia¸˜o ca ca Relembre-se tamb´m que o coeficiente de dispers˜o ´ igual a e a e CV (X) = DP (X) , |E(X)| (4.14) caso X seja uma v.a. cont´ ınua, desde que E(X) = 0. • Exerc´ ıcio 4.27 — Retome o Exerc´ 4.9 e prove que a variˆncia, o desvio-padr˜o e o ıcio a a coeficiente de varia¸˜o do tempo entre colis˜es consecutivas s˜o iguais a 1/0.42 , 1/0.4 e 1 ca o a respectivamente. • 89
  • 95. 4.5 Distribui¸˜o uniforme cont´ ca ınua. Motiva¸˜o 4.28 — Distribui¸˜o uniforme cont´ ca ca ınua Esta distribui¸˜o ´ o an´logo cont´ ca e a ınuo da distribui¸ao uniforme discreta, tal como sugere c˜ o seu nome. N˜o surpreende pois que se trate de distribui¸ao adequada a descrever o a c˜ comportamento probabil´ ıstico de v.a. cujos valores poss´ ıveis se crˆ terem todos o mesmo e “peso”, para al´m de constituirem um conjunto conhecido e limitado (quer a esquerda, e ` quer ` direita). a • Defini¸˜o 4.29 — Distribui¸˜o uniforme cont´ ca ca ınua A v.a. cont´ ınua X possui distribui¸ao uniforme cont´ c˜ ınua no intervalo [a, b] (onde a < b), caso a sua f.d.p. seja dada por   fX (x) =  1 , b−a 0, a≤x≤b c.c. (4.15) Uniforme Nota¸˜o ca X ∼ uniforme(a, b) Parˆmetros a a (extremo inferior do intervalo; a ∈ I R) b (extremo superior do intervalo; b ∈ I R) Contradom´ ınio F.d.p. [a, b] fX (x) = Valor esperado E(X) = Variˆncia a V (X) =   1 b−a ,  0, a≤x≤b c.c. a+b 2 (b−a)2 12 • Exerc´ ıcio 4.30 — Distribui¸˜o uniforme cont´ ca ınua Esboce o gr´fico da f.d.p. da v.a. X ∼ uniforme(a, b) e deduza o seu valor esperado e a a sua variˆncia. a • 90
  • 96. Nota 4.31 — F.d. da v.a. uniforme cont´ ınua A f.d. da v.a. X ∼ uniforme(a, b) possui trˆs tro¸os e ´ igual a e c e FX (x) = P (X ≤ x) x = −∞ 0,    =     fX (t)dt 1, x−a , b−a x<a a≤x≤b x > b. (4.16) Gra¸as a simplicidade desta fun¸ao, ela n˜o se encontra tabelada, a semelhan¸a do que c ` c˜ a ` c acontece com a da distribui¸ao uniforme discreta. c˜ • Exemplo 4.32 — Distribui¸˜o uniforme cont´ ca ınua O diˆmetro m´ a ınimo e m´ximo de pist˜es fornecidos a certo fabricante autom´vel ´ de a o o e 18mm e 22mm, respectivamente. Um dispositivo de controlo, que mede o diˆmetro de um pist˜o fornecido de 2 em 2 horas, a a alerta o operador assim que se registe um diˆmetro superior a 21.5mm.8 a (a) Qual a probabilidade de o operador ser alertado aquando de uma medi¸ao, c˜ assumindo que o diˆmetro dos pist˜es se distribui uniformemente? a o • V.a. X = diˆmetro do pist˜o (em mm) a a • Distribui¸˜o de X ca X ∼ uniforme(a, b) • Parˆmetros a a = diˆmetro m´ a ınimo = 18mm b = diˆmetro m´ximo = 22mm a a • F.d.p. de X 8 1 22−18  fX (x) =   0, 1 = 4 , 18 ≤ x ≤ 22 c.c. Adaptado do Teste A, 11 de Maio de 2002. 91
  • 97. • Probabilidade pedida Seja A o evento que representa a emiss˜o de alerta aquando de uma medi¸˜o. a ca Ent˜o a P (A) = P (X > 21.5) +∞ = 21.5 22 = 21.5 fX (x)dx 1 dx + 4 +∞ 0 dx 22 x 22 4 21.5 1 = . 8 = (b) Calcule a probabilidade de ser emitido alerta pelo menos 30 horas ap´s o in´ das o ıcio medi¸oes dos diˆmetros. c˜ a • Nova v.a. Y =n´mero de medi¸oes at´ ` emiss˜o de um alerta u c˜ ea a • Distribui¸˜o de Y ca Y ∼ geom´trica(p) e • Parˆmetro a p = P (A) = 1/8 • F.p. de Y P (Y = y) = (1 − p)y−1 × p = (1 − 1/8)y−1 × 1/8, y = 1, 2, . . . • Probabilidade pedida Uma vez que as medi¸oes s˜o efectuadas de 2 em 2 horas a probabilidade pedida c˜ a mais n˜o ´ que a e P (Y > 15) = 1 − P (Y ≤ 15) 15 (1 − p)y−1 × p = 1− y=1 = 1−p× 1 − (1 − p)15 1 − (1 − p) = (1 − p)15 0.135. • 92
  • 98. Proposi¸˜o 4.33 — Distribui¸˜o uniforme cont´ ca ca ınua Considere-se que X ∼ uniforme(a, b). Ent˜o os intervalos com a mesma amplitude — a desde que contidos em [a, b] — s˜o equiprov´veis. Assim, a a ∆ , (4.17) P (c < X ≤ c + ∆) = P (d < X ≤ d + ∆) = b−a para c, c + ∆, d, d + ∆ ∈ [a, b]. • 93
  • 99. 4.6 Distribui¸˜o normal. ca Motiva¸˜o 4.34 — Distribui¸˜o normal ca ca Esta distribui¸ao surge associada a modela¸˜o de observa¸˜es relativas a medi¸oes de c˜ ` ca co c˜ temperaturas, de velocidades, de erros, de volumes de ru´ ıdo, etc. Surge tamb´m como e 9 distribui¸ao aproximada, nomeadamente de algumas distribui¸˜es discretas ou ainda de c˜ co 10 m´dias aritm´ticas ou somas de v.a. O recurso a distribui¸˜o normal nestes casos prendee e ` ca se com alguma evidˆncia emp´ e ırica e matem´tica, respectivamente. Importa referir que a o uso desta distribui¸˜o deve ser evitado ou deve fazer-se com muita cautela quando a ca v.a. tem car´cter (acentuadamente) assim´trico pois como teremos oportunidade de ver a e j´ de seguida esta v.a. tem f.d.p. sim´trica. a e A utiliza¸˜o da distribui¸ao normal no dom´ ca c˜ ınio da Inferˆncia Estat´ e ıstica11 reveste-se de extrema importˆncia e deve-se a uma s´rie de propriedades matem´ticas interessantes a e a desta distribui¸ao. c˜ • Nota 4.35 — Distribui¸˜o normal (nota hist´rica) ca o A distribui¸˜o normal foi introduzida pelo matem´tico francˆs Abraham de Moivre (1667– ca a e 1754) em 1733 e foi utilizada para aproximar probabilidades de eventos respeitantes a v.a. binomiais.12 E ´ curioso notar que o trabalho de de Moivre esteve “perdido” por algum e tempo, tendo Karl Friedrich Gauss (1777–1855) derivado a distribui¸ao normal de forma c˜ independente cerca de 100 anos mais tarde, e que o nome alternativo mais usual para esta distribui¸ao ´ distribui¸˜o gaussiana. c˜ e ca • Defini¸˜o 4.36 — Distribui¸˜o normal ca ca A v.a. cont´ ınua X diz-se com distribui¸˜o normal de parˆmetros µ e σ 2 se a sua f.d.p. for ca a igual a (x−µ)2 1 e− 2σ2 , −∞ < x < +∞. fX (x) = √ 2πσ 9 (4.18) Como poderemos ver no pr´ximo cap´ o ıtulo. Gra¸as ao Teorema do Limite Central, como teremos ocasi˜o de descrever de forma mais detalhada c a no pr´ximo cap´ o ıtulo. 11 Assunto de que falaremos a partir do Cap´ ıtulo 6. 12 Este resultado foi posteriormente estendido por Pierre Simon Laplace (1749–1827) a outras v.a., no s´culo XIX. e 10 94
  • 100. Normal Nota¸˜o ca X ∼ normal(µ, σ 2 ) Parˆmetros a µ (µ ∈ I R) σ 2 (σ 2 ∈ I + ) R Contradom´ ınio I R F.d.p. fX (x) = Valor esperado E(X) = µ Variˆncia a V (X) = σ 2 √ 1 e− 2πσ (x−µ)2 2σ 2 , −∞ < x < +∞ • Nota 4.37 — F.d.p. da v.a. normal ´ A f.d.p. da distribui¸ao normal ´ sim´trica em torno de µ e tem a forma de sino.13 E c˜ e e devido a estes dois factos que a mediana ´ igual a moda e ao valor esperado, i.e., e ` • me = mo = E(X) = µ. Para al´m disso, o valor de σ 2 determina o achatamento da f.d.p. desta v.a. ou n˜o se e a tratasse σ 2 de uma medida de dispers˜o (absoluta): a • σ 2 muito pequeno, f.d.p. muito alongada; • σ 2 muito grande, f.d.p. muito achatada. • Exerc´ ıcio 4.38 — Esboce e compare os gr´ficos das f.d.p. das v.a.: a • X ∼ normal(5, 0.52 ); • X ∼ normal(10, 0.52 ); • X ∼ normal(10, 32 ). • Nota 4.39 — F.d. da v.a. normal A f.d. da v.a. X ∼ normal(µ, σ 2 ) ´ dada por e x FX (x) = 13 −∞ √ (t−µ)2 1 e− 2σ2 dt, −∞ < x < +∞. 2πσ (4.19) J´ agora adiante-se que a f.d.p. da v.a. normal(µ, σ 2 ) possui dois pontos de inflex˜o em µ ± σ. a a 95
  • 101. No entanto, FX (x) n˜o possui express˜o fechada, pelo que s´ pode ser obtida a a o numericamente ou por consulta de tabelas existentes. A consulta destas tabelas encontra justifica¸ao nos seguintes resultados. c˜ • Proposi¸˜o 4.40 — Normal padr˜o (ou normal reduzida, ou normal standard) ca a 2 √ ca Seja X ∼ normal(µ, σ ). Ent˜o a v.a. Z = X−E(X) = X−µ diz-se com distribui¸˜o normal a σ V (X) padr˜o. Ali´s, a a X −µ ∼ normal(0, 1). σ Para al´m disso, Z possui f.d. dada por e X ∼ normal(µ, σ 2 ) ⇔ Z = z FZ (z) = P (Z ≤ z) = −∞ t2 1 √ e− 2 dt = Φ(z). 2π (4.20) (4.21) • A fun¸ao Φ(z) est´ por sinal tabelada para um grande n´mero de valores de z como c˜ a u se ilustra no exemplo seguinte. Exemplo 4.41 — Consulta das tabelas da distribui¸˜o normal padr˜o ca a • Φ(2.53) = • Φ(0) = • Φ(1.0) = • . Proposi¸˜o 4.42 — F.d. da v.a. normal ca A f.d. da v.a. Z = X−µ ∼ normal(0, 1) encontra-se tabelada e, como vimos, ´ usualmente e σ ´ ` custa desta f.d. e invocando a Proposi¸ao 4.40 que se obt´m a representada por Φ. E a c˜ e 2 2 f.d. da v.a. X ∼ normal(µ, σ ), para quaisquer valores admiss´ ıveis de µ e de σ . Com efeito: FX (x) = P (X ≤ x) X −µ x−µ = P ≤ σ σ x−µ = P Z≤ σ x−µ = Φ . σ (4.22) • 96
  • 102. Nota 4.43 — Consulta das tabelas da distribui¸˜o normal (cont.) ca Importa notar que n˜o constam valores de Φ(−z) para z > 0 nas tabelas disponibilizadas a para esta disciplina. No entanto, gra¸as a simetria da f.d.p. da normal padr˜o em torno c ` a da origem pode concluir-se que Φ(−z) = 1 − Φ(z), −∞ < z < +∞. (4.23) Por exemplo: • Φ(−2.53) = 1 − Φ(2.53) = . Conv´m notar tamb´m que das tabelas disponibilizadas s´ constam valores de Φ para e e o z = 0.00 − 4.09 (0.01). Contudo, ao tirar-se partido do facto de a f.d. de qualquer v.a. ser mon´tona n˜o decrescente, conclui-se, por exemplo, que o a • Φ(5.15) > Φ(4.09) = 0.999978 1.0000 ou que • Φ(−5.15) < Φ(−4.09) = 1 − Φ(4.09) = 1 − 0.999978 0.0000. • Exemplo 4.44 — Distribui¸˜o normal ca Uma componente mecˆnica ´ constitu´ por uma biela e uma manivela. Esta componente a e ıda possui massa total com distribui¸˜o normal com valor esperado 1.8Kg e variˆncia ca a 2 0.0049Kg . Calcule a probabilidade desta componente n˜o respeitar as seguintes especifica¸oes: a c˜ 1.8 ± 0.075Kg. • V.a. X =massa total da componente • Distribui¸˜o de X ca X ∼ normal(µ, σ 2 ) • Parˆmetros a µ = E(X) = 1.8Kg σ 2 = V (X) = 0.0049Kg 2 97
  • 103. • Probabilidade pedida Sejam R o evento que representa respeitar-se as especifica¸oes e Z a v.a. normal c˜ padr˜o (i.e., Z ∼ normal(0, 1)). Assim, a probabilidade pedida ´ igual a a e = 1 − P (D) = 1 − P (1.8 − 0.075 ≤ X ≤ 1.8 + 0.075) = P (D) 1−P = = (1.8 − 0.075) − E(X) V (X) ≤ X − E(X) V (X) ≤ (1.8 + 0.075) − E(X) V (X) (1.8 − 0.075) − 1.8 (1.8 + 0.075) − 1.8 √ √ ≤Z≤ 0.0049 0.0049 0.075 0.075 1−P − ≤Z≤ 0.07 0.07 1 − P (−1.07 ≤ Z ≤ 1.07) 1−P = 1 − [Φ(1.07) − Φ(−1.07)] = 1 − {Φ(1.07) − [1 − Φ(1.07)]} = 2 × [1 − Φ(1.07)] tabela = 2 × (1 − 0.8577) = 0.2846. Refira-se que a probabilidade de a componente mecˆnica n˜o respeitar as a a especifica¸oes ´ elevada, pelo que ´ necess´rio melhor o processo de produ¸ao, c˜ e e a c˜ nomeadamente, diminuir a variˆncia da massa desta componente. a • Nota 4.45 — Mais curiosidades acerca da distribui¸˜o normal ca Adiante-se que Intervalo Probabilidade µ±σ P (µ − σ < X ≤ µ + σ) = Φ(1) − Φ(−1) = 0.8413 − (1 − 0.8413) = 0.6826 µ ± 2σ P (µ − 2σ < X ≤ µ + 2σ) = . . . = 0.9544 µ ± 3σ P (µ − 3σ < X ≤ µ + 3σ) = . . . = 0.9973 µ ± 1.9600σ P (µ − 1.9600σ < X ≤ µ + 1.9600σ) = . . . = 0.9500 µ ± 2.5758σ P (µ − 2.5758σ < X ≤ µ + 2.5758σ) = . . . = 0.9900 independentemente dos valores do valor esperado (µ) e do desvio–padr˜o (σ) da a distribui¸ao normal. c˜ De real¸ar que, embora o contradom´ c ınio da distribui¸˜o normal seja (−∞, +∞), ao ca considerar-se valores positivos para µ suficientemente grandes quando comparados com 98
  • 104. o valor de σ (e.g. µ/σ >> 3) a probabilidade de registar-se valores negativos ´ irris´ria. e o 2 Por exemplo, caso X ∼ normal(40, 10 ), tem-se P (X < 0) = Φ[(0 − 40)/10] = Φ(−4.00) = 1 − Φ(4.00) 0.000000. (4.24) Justifica-se assim a utiliza¸ao da distribui¸ao normal na modela¸ao de quantidades c˜ c˜ c˜ num´ricas intrinsecamente positivas como ´ o caso de tempos, volumes de ru´ e e ıdos, alturas, pesos, etc., caso estas v.a. tenham, bem entendido, car´cter sim´trico. a e • A distribui¸ao normal satisfaz uma s´rie de outras propriedades mas para j´ c˜ e a enunciemos a seguinte da qual a Proposi¸˜o 4.40 ´ um caso particular. ca e Proposi¸˜o 4.46 — Fecho da distribui¸˜o normal para fun¸˜es lineares ca ca co 2 Seja X ∼ normal(µ, σ ). Ent˜o qualquer sua fun¸ao linear Y = aX + b verifica: a c˜ Y = aX + b ∼ normal(aµ + b, a2 σ 2 ), (4.25) • onde a e b s˜o reais arbitr´rios. a a Veremos mais tarde que a soma de v.a. normais ainda ´ uma v.a. normal... e Exerc´ ıcio 4.47 — Prove a Proposi¸˜o 4.46. ca • ´ E frequente pretender-se resposta a quest˜es como esta: o Ao considerar-se que X representa o peso de um indiv´ ıduo, quantos Kg se calcula que metade da popula¸˜o n˜o exceder´? ca a a −1 A resposta para esta quest˜o ´ claramente a mediana, me = FX (0.5), j´ que a e a P (X ≤ me) = 0.5. Ali´s, a quest˜o poderia ser reformulada e passar-se a solicitar a a um quantil de probabilidade p. 99
  • 105. Nota 4.48 — Quantis da distribui¸˜o normal padr˜o ca a Foi tamb´m disponibilizada uma tabela de quantis da distribui¸ao normal padr˜o, i.e., e c˜ a respeitantes a v.a. Z ∼ normal(0, 1). A consulta da mesma faz-se sem grande dificuldade. ` Sen˜o vejamos alguns exemplos de quantis de probabilidade p, com 0.500 ≤ p ≤ 1.000, a da distribui¸ao normal padr˜o: c˜ a −1 • FZ (0.975) = Φ−1 (0.975) = 1.9600 • Φ−1 (0.974) = 1.9431. Mas atente-se que os quantis de probabilidade p < 0.500 s˜o negativos:14 a • Φ−1 (0.023) = −Φ−1 (1 − 0.023) = −1.9954. • Exemplo 4.49 — Quantis da distribui¸˜o normal ca As especifica¸˜es sobre o diˆmetro de um certo tipo de cabo admitem um desvio m´ximo, co a a face ao valor de referˆncia, de ±10 m´ e ıcrons. Contudo, no seu fabrico apenas se consegue garantir que esse desvio tem distribui¸ao normal de valor esperado igual a zero m´ c˜ ıcrons. Que valor deve ter a variˆncia para se poder garantir que em 95% dos cabos produzidos a os desvios est˜o entre ±9.8 m´ a ıcrons?15 • V.a. X =desvio (em m´ ıcrons) do diˆmetro de um certo tipo de cabo face ao valor de a referˆncia e • Distribui¸˜o de X ca X ∼ normal(µ, σ 2 ) • Parˆmetros a µ = E(X) = 0 σ 2 = V (X) = ? 14 Basta pensar que a f.d.p. da distribui¸˜o normal padr˜o ´ sim´trica em rela¸˜o ` origem e como tal ca a e e ca a P (Z ≤ 0) = 0.5. 15 Adaptado do Teste A de 11 de Novembro de 2006. 100
  • 106. • Obten¸˜o da variˆncia ca a Ao considerar-se a v.a. Z ∼ normal(0, 1), tem-se σ 2 : P (−9.8 ≤ X ≤ 9.8) = 0.95   −9.8 − E(X) X − E(X) 9.8 − E(X)  P ≤ ≤ = 0.95 V (X) V (X) V (X) −9.8 − 0 9.8 − 0 ≤Z≤ P = 0.95 σ σ 9.8 9.8 Φ −Φ − = 0.95 σ σ 9.8 − 1 = 0.95 2×Φ σ 9.8 = Φ−1 (0.975) σ tabela 9.8 σ = 1.96 2 σ = 25. Ilustra-se assim a utilidade dos quantis na obten¸ao de um parˆmetro da distribui¸ao c˜ a c˜ normal. • Exerc´ ıcio 4.50 — Prove que o quantil de probabilidade p de uma v.a. X ∼ normal(µ, σ 2 ) se escreve do seguinte modo a custa do quantil de probabilidade p da ` −1 normal padr˜o (Φ−1 (p)): Fnormal(µ,σ2 ) (p) = µ + σ × Φ−1 (p). a • 101
  • 107. 4.7 Distribui¸˜o exponencial. ca Motiva¸˜o 4.51 — Distribui¸˜o exponencial ca ca Trata-se certamente da distribui¸ao cont´ c˜ ınua mais utilizada na caracteriza¸ao da dura¸ao c˜ c˜ de equipamento, por exemplo, electr´nico, naquilo que usualmente se designa de testes de o vida. Esta distribui¸ao surge tamb´m na pr´tica no contexto da modela¸ao dos tempos c˜ e a c˜ entre ocorrˆncias consecutivas de eventos do mesmo tipo, e.g. chegadas de clientes a um e sistema, falhas mecˆnicas, colis˜es, etc. a o Constate-se que a popularidade da distribui¸ao exponencial prende-se essencialmente c˜ com a simplicidade do modelo (e das inferˆncias sobre este modelo), algumas das suas e propriedades e alguma evidˆncia emp´ e ırica. • Defini¸˜o 4.52 — Distribui¸˜o exponencial ca ca Lidaremos com uma v.a. X com distribui¸ao exponencial de parˆmetro λ, caso c˜ a   λe−λx , x ≥ 0 fX (x) =  0, c.c. (4.26) Exponencial Nota¸˜o ca X ∼ exponencial(λ) Parˆmetro a λ (λ ∈ I + ) R Contradom´ ınio I 0 = [0, +∞) R+ F.d.p.   λe−λx , x ≥ 0 fX (x) =  0, c.c. Valor esperado E(X) = 1 λ Variˆncia a V (X) = 1 λ2 • Exerc´ ıcio 4.53 — F.d. da v.a. exponencial Esboce o gr´fico da f.d.p. da v.a. X ∼ exponencial(λ) e verifique que a f.d. de X ´ dada a e por FX (x) =    0, x<0 −λx 1 − e , x ≥ 0, (4.27) que por sinal tamb´m n˜o est´ tabelada devido a simplicidade da sua express˜o geral. • e a a ` a 102
  • 108. Exemplo 4.54 — Distribui¸˜o exponencial ca Os turbofan jet engines come¸aram a ser usados h´ mais de 20 anos como meio de c a propuls˜o de aeronaves comerciais: constituem o que se considera uma forma econ´mica a o e segura de transportar carga e passageiros. O tempo entre falhas consecutivas (em horas) por parte de certo tipo destes motores possui distribui¸˜o exponencial de valor esperado igual a 500 horas. ca (a) Obtenha a probabilidade do tempo entre falhas consecutivas exceder E(X) = 500 horas. Comente. • V.a. X = tempo entre falhas consecutivas (em horas) • Distribui¸˜o de X ca X ∼ exponencial(λ) • Parˆmetro a λ : E(X) = 500 1 = 500 λ λ = 0.002 • F.d.p. de X   0, x<0 fX (x) =  −λx λ e , x ≥ 0. • F.d. de X FX (x) =   0, x<0 −λx  1−e , x ≥ 0. • Probabilidade pedida P [X > E(X) = 500] = 1 − FX [E(X)] = 1 − FX (1/λ) 1 = 1 − 1 − e−λ λ = e−1 ´ constante para qualquer valor (positivo, ´ claro) do parˆmetro λ. Mais, e e a −1 −1 FExp(λ) (1 − e ) = E(X) = 1/λ. (b) Sabendo que decorreram mais de 800 horas desde o registo da ultima falha, calcule ´ a probabilidade de virmos a aguardar adicionalmente mais de 500 horas at´ que e ocorra a pr´xima falha. Compare o valor desta probabilidade com o obtido em (a). o 103
  • 109. • Probabilidade pedida P (X > 800 + 500, X > 800) P (X > 800) P (X > 800 + 500) = P (X > 800) 1 − FX (800 + 500) = 1 − FX (800) P (X > 800 + 500|X > 800) = = 1 − 1 − e−λ×(800+500) 1 − (1 − e−λ×800 ) = e−λ×500 = e−1 = P (X > 500). O valor desta probabilidade condicionada coincide com a probabilidade calculada na al´ ınea anterior, ilustrando assim uma propriedade que se enuncia j´ de seguida. a • Proposi¸˜o 4.55 — Falta de mem´ria da distribui¸˜o exponencial ca o ca Considere-se que X ∼ exponencial(λ). Ent˜o a P (X > t + x|X > t) = P (X > x), ∀t, x ∈ I 0 . R+ (4.28) Equivalentemente, (X − t|X > t) ∼ exponencial(λ), ∀t ∈ I 0 . R+ (4.29) Assim sendo, ao considerar-se que X representa a vida de um vida de um item e que X tem distribui¸ao exponencial(λ), a vida residual no instante t, (X − t|X > t), possuir´ c˜ a exactamente a mesma distribui¸˜o e o mesmo parˆmetro. Recorde-se que esta propriedade ca a ´ denominada de “falta de mem´ria”. e o • Nota 4.56 — Falta de mem´ria da distribui¸˜o exponencial o ca A distribui¸˜o exponencial ´ a unica distribui¸˜o cont´ ca e ´ ca ınua que satisfaz a propriedade de falta de mem´ria, como ali´s acontece com a distribui¸ao geom´trica entre as distribui¸oes o a c˜ e c˜ discretas. Por este facto a distribui¸˜o exponencial pode ser considerada o an´logo ca a cont´ ınuo da distribui¸˜o geom´trica. ca e Importa referir que falta de mem´ria da distribui¸ao exponencial torna-a inadequada o c˜ para modelar tempos de vida de equipamento sujeito a envelhecimento ou desgaste. • 104
  • 110. Proposi¸˜o 4.57 — Rela¸˜o entre as distribui¸oes exponencial e de Poisson / ca ca c˜ Processo de Poisson Sejam: • X o tempo entre duas ocorrˆncias consecutivas de um evento; e • Nx o n´mero de ocorrˆncias do evento no intervalo (0, x]. u e Ent˜o a Nx ∼ Poisson(λ × x) ⇔ X ∼ exponencial(λ) (4.30) e a colec¸˜o de v.a. {Nx , x > 0} diz-se um processo de Poisson de taxa λ. ca • Exerc´ ıcio 4.58 — Demonstre a Proposi¸˜o 4.57. ca • Exerc´ ıcio 4.59 — Prove que a v.a. X ∼ exponencial(λ) possui outra propriedade curiosa: tem coeficiente de varia¸˜o unit´rio para qualquer valor de λ. ca a • Exemplo 4.60 — Rela¸˜o entre as distribui¸˜es exponencial e de Poisson ca co O intervalo de tempo entre duas chegadas consecutivas de mensagens electr´nicas a um o computador tem distribui¸˜o exponencial com valor esperado igual a 2 minutos. ca Determine a probabilidade de chegarem mais de 10 mensagens em meia-hora. • V.a. X = tempo (em minutos) entre chegadas consecutivas de mensagens electr´nicas o • Distribui¸˜o de X ca X ∼ exponencial(λ) • Parˆmetro a λ : E(X) = 2 1 = 2 λ λ = 0.5 (mensagens/minuto) • Nova v.a. Nx = N30 = n´mero de mensagens chegadas em 30 minutos u 105
  • 111. • Distribui¸˜o de N30 ca De acordo com o resultado (4.30) tem-se N30 ∼ Poisson(λ × x = 0.5 × 30 = 15). • F.p. de N30 P (N30 = y) = e−15 15y , y! y = 0, 1, 2, . . . • Probabilidade pedida = 1 − P (N30 ≤ 10) = P (N30 > 10) 1 − FP oisson(15) (10) tabela = 1 − 0.1185 = 0.8815. • Exemplo 4.61 — Teste B de 10 de Novembro de 2007 Durante a hora de ponta dos dias uteis, o n´mero de autocarros que passam por hora em ´ u certo local tem distribui¸ao de Poisson. c˜ (a) Calcule o valor esperado dessa distribui¸ao, sabendo que a probabilidade de n˜o c˜ a −15 passar nenhum autocarro nesse local durante 20 minutos ´ igual a e . e • V.a. N1 = n´mero de autocarros que passam em uma hora u N1/3 = n´mero de autocarros que passam em 20 min. (i.e., em 1/3 de hora) u • Distribui¸˜es de N1 e N1/3 co N1 ∼ Poisson(λ) N1/3 ∼ Poisson(λ/3) • F.p. de N1 e N1/3 f orm λy , y = 0, 1, 2, . . . y! y e−λ/3 (λ/3) , y = 0, 1, 2, . . . y! P (N1 = y) = e−λ P (N1/3 = y) = • Parˆmetros a λ : P (N1/3 = 0) = e−15 e−λ/3 (λ/3)0 0! = e−15 λ/3 = 15 λ = 45 106
  • 112. • Valor esperado pedido f orm E(N1 ) = λ = 45 (b) Qual ´ a probabilidade do intervalo de tempo entre a passagem de dois autocarros e por esse local exceder 5 minutos? • Nova v.a. N1/12 = n´mero de autocarros que passam em 5 min. (i.e., em 1/12 de hora) u • Distribui¸˜o de N1/12 ca N1/12 ∼ Poisson(λ/12 = 3.75) • F.p. de N1/12 P (N1/12 = y) = e−3.75 3.75y , y! y = 0, 1, 2, . . . • Probabilidade pedida A probabilidade de o tempo entre duas passagens consecutivas de dois autocarros por esse local exceder 5 minutos ´ exactamente igual a e P (N1/12 = 0) = e −3.75 3.750 = e−3.75 0! 0.0235. Somos capazes de adiantar uma resolu¸˜o alternativa ao recorrer ao resultado (4.30) ca que traduz a rela¸ao entre as distribui¸oes exponencial e de Poisson. c˜ c˜ • Nova v.a. X = tempo (em horas) entre duas passagens consecutivas de autocarros • Distribui¸˜o de X ca Uma vez que N1 ∼ Poisson(λ) pode concluir-se que X ∼ exponencial(λ = 45). F.d.p. de X fX (x) =    0, x<0 −45x 45 e , x ≥ 0. • Probabilidade pedida +∞ P (X > 1/12h = 5min) = 1/12 +∞ fX (x)dx = = −e−45x +∞ 1/12 45 e−45x dx 1/12 = e−45/12 0.0235. • 107
  • 113. Cap´ ıtulo 5 Distribui¸oes conjuntas de c˜ probabilidade e complementos Motiva¸˜o 5.1 — Pares aleat´rios ca o Ao realizar-se uma experiˆncia aleat´ria ´ comum estarmos interessados em estudar mais e o e do que uma v.a., nomeadamente, pares de v.a. ou pares aleat´rios. o ´ tamb´m frequente estarmos preocupados em saber que rela¸˜o existe entre esse E e ca par de v.a., em particular de que modo o conhecimento de uma v.a. pode influenciar o comportamento probabil´ ıstico da outra v.a. do par aleat´rio. o • Nota 5.2 — Pares aleat´rios o ´ E usual representar um par aleat´rio — ou v.a. bidimensional — por (X, Y ). o • Exemplo 5.3 — Pares aleat´rios o • O n´mero de sinais emitidos (X) por um aparelho e o n´mero desses sinais que u u foram recebidos (Y ) por um aparelho receptor — par de v.a. discretas. • A classifica¸ao do sinal transmitido (X) pelo aparelho emissor e a do sinal recebido c˜ (Y ) pelo receptor, quanto a sua intensidade (alta, m´dia, baixa) — par de ` e v.a. discretas (qualitativas ordinais). • A resistˆncia de uma pe¸a (X) e o n´mero de manchas a sua superf´ (Y ) — par e c u ` ıcie com uma v.a. cont´ ınua e uma v.a. discreta. • A distˆncia (X) de um ponto de impacto ao centro de um alvo e o ˆngulo (Y ) com a a o eixo das abcissas — par de v.a. cont´ ınuas. 108
  • 114. • O n´mero de clientes (X) que encontramos a chegada a um sistema e o nosso tempo u ` de permanˆncia em fila de espera (Y ) — par com uma v.a. discreta e uma v.a. com e car´cter misto. a • A defini¸˜o de par aleat´rio ou v.a. bidimensional ´ an´loga ` de v.a. unidimensional: ca o e a a estamos a lidar mais uma vez com uma fun¸ao — com caracter´ c˜ ısticas especiais — que transforma, neste caso, eventos em pares ordenados (vectores bidimensionais). Defini¸˜o 5.4 — Par aleat´rio ca o A fun¸˜o (X, Y ) diz-se um par aleat´rio se possuir ca o • dom´ ınio Ω, • contradom´ ınio I X,Y contido em I 2 R R e tiver a particularidade de verificar uma condi¸ao de mensurabilidade explicitada j´ a c˜ a seguir na Nota 5.5. Assim, (X, Y ) : Ω → I X,Y ⊂ I 2 , R R (5.1) i.e., a imagem de um evento ω ∈ Ω ´ um vector bidimensional (X, Y )(ω) = e n (X(ω), Y (ω)) ∈ I X,Y ⊂ I . R R • Nota 5.5 — Mensurabilidade Considere-se uma e.a., que possui espa¸o de resultados Ω associado ` σ−´lgebra A, e c a a ainda um par aleat´rio (X, Y ). o A condi¸˜o de mensurabilidade prende-se no caso bidimensional com a existˆncia de ca e imagem inversa — segundo (X, Y ) — de qualquer regi˜o do tipo (−∞, x] × (−∞, y] na a σ−´lgebra A. Deste modo, a ∀(x, y) ∈ I 2 , (X, Y )−1 ((−∞, x] × (−∞, y]) ∈ A. R De notar que, ao considerar-se (X, Y )(ω) = (X(ω), Y (ω)), a imagem inversa que referimos ´ dada por e (X, Y )−1 ((−∞, x] × (−∞, y]) = {ω ∈ Ω : X(ω) ≤ x, Y (ω) ≤ y}, i.e., trata-se da colec¸ao de todos os eventos da σ−´lgebra A aos quais a primeira c˜ a componente do par aleat´rio, X, atribui valores no intervalo (−∞, x] e, simultaneamente, o a segunda componente do par aleat´rio, Y , atribui valores no intervalo (−∞, y]. o • 109
  • 115. 5.1 Duas vari´veis aleat´rias discretas. Distribui¸˜es a o co conjuntas, marginais e condicionais. Independˆncia. e Defini¸˜o 5.6 — Par aleat´rio discreto ca o A par aleat´rio (X, Y ) diz-se discreto, caso tome valores exclusivamente num conjunto de o valores finito ou infinito numer´vel, I X,Y = {(xi , yj )}i=1,2,...; j=1,2,... , tal que a R P [(X, Y ) ∈ I X,Y ] = R P (X = xi , Y = yj ) = 1 i (5.2) j P (X = xi , Y = yj ) > 0, ∀(xi , yj ) ∈ I X,Y . R (5.3) • Motiva¸˜o 5.7 — Fun¸˜o de probabilidade conjunta ca ca A caracteriza¸ao probabil´ c˜ ıstica de um par aleat´rio (X, Y ) ´ usualmente feita a custa da o e ` respectiva fun¸ao de probabilidade conjunta, tal como a de uma v.a. discreta ´ feita a c˜ e ` custa da fun¸˜o de probabilidade. ca • Defini¸˜o 5.8 — Fun¸˜o de probabilidade conjunta ca ca Seja (X, Y ) um par aleat´rio discreto com contradom´ o ınio I X,Y (naturalmente finito ou R infinito numer´vel). Ent˜o a f.p. conjunta de (X, Y ) ´ definida por a a e P (X = x, Y = y) =   P (X = xi , Y = yj ), se (x, y) = (xi , yj ) ∈ I X,Y R  0, c.c. (5.4) e1 satisfaz: • P (X = x, Y = y) > 0, ∀(x, y) ∈ I X,Y R • P (X = x, Y = y) ≥ 0, ∀(x, y) ∈ I 2 R • (x,y)∈I 2 R P (X = x, Y = y) = • P [(X, Y ) ∈ A] = (x,y)∈A∩I X,Y R (x,y)∈I X,Y R P (X = x, Y = y) = 1 P (X = x, Y = y), ∀A ⊂ I 2 . R • Nota 5.9 — F.p. conjunta A f.p. conjunta de um par aleat´rio ´ raramente representada graficamente. Quando o o e contradom´ ınio do par aleat´rio (X, Y ) ´ finito e n˜o muito numeroso — e.g. com n × m o e a valores — ´ costume organizar a f.p. conjunta numa tabela do tipo e 1 Note-se que P (X = x, Y = y) = P ({ω ∈ Ω : X(ω) = x, Y (ω) = y}). 110
  • 116. X ... ... . . . xi . . . y1 p11 . . . . . . . . . xn pn1 ... Y yj p1j x1 . . . ... . . . ... pij ... pnj ... ... . . . ... . . . ym p1m . . . . . . . . . ... pnm onde pij = P (X = xi , Y = yj ), i = 1, . . . , n, j = 1, . . . , m, tal como teremos oportunidade de ver no exemplo que se seguir´. a • Exemplo 5.10 — F.p. conjunta Volte a considerar um teste americano com 3 quest˜es, cujas respostas s˜o dadas de forma o a independente. A resposta a cada quest˜o pode estar correcta (C) com probabilidade a P (C) = 0.5, ou incorrecta (C) com probabilidade P (C) = 0.5. Considere o par aleat´rio o (X, Y ), onde X e Y representam o n´mero de respostas correctas e incorrectas no teste, u respectivamente. (a) Confirme que o conjunto de valores poss´ ıveis de (X, Y ) ´ {(0, 3), (1, 2), e (2, 1), (3, 0)}. • Par aleat´rio (X, Y ) o X = n´mero de respostas correctas neste teste americano u Y = n´mero de respostas incorrectas no mesmo u • Contradom´ ınio de (X, Y ) O conjunto de valores poss´ ıveis do par aleat´rio (X, Y ) obt´m-se identificando o e os valores de X e Y associados a cada evento elementar: Eventos elementares X Y CCC = C 1 ∩ C 2 ∩ C 3 CCC CCC CCC CCC CCC CCC CCC 0 1 1 1 2 2 2 3 3 2 2 2 1 1 1 0 Assim, confirma-se que I X,Y = {(0, 3), (1, 2), (2, 1), (3, 0)}. R 111
  • 117. (b) Defina a f.p. conjunta do par aleat´rio (X, Y ). o • F.p. conjunta de (X, Y ) Notando que a v.a. Y ´ uma fun¸ao afim de X (Y = 3 − X) depressa se conclui e c˜ que P (X = 0, Y = 3) = P (CCC) = P (X = 0) 1 = 8 P (X = 1, Y = 2) = P (CCC) + P (CCC) + P (CCC) = P (X = 1) 3 = 8 P (X = 2, Y = 1) = P (CCC) + P (CCC) + P (CCC) = P (X = 2) 3 = 8 P (X = 3, Y = 0) = P (CCC) = P (X = 3) 1 = , 8 ou de forma resumida     1/8, (x, y) = (0, 3), (3, 0) P (X = x, Y = y) = 3/8, (x, y) = (1, 2), (2, 1)    0, outros pares de valores de (x, y), ou ainda sob a forma de uma tabela X Y 0 1 2 3 0 0 0 0 1 8 1 0 0 3 8 0 2 0 3 8 0 0 3 1 8 0 0 0 • 112
  • 118. Defini¸˜o 5.11 — Fun¸˜o de distribui¸˜o conjunta (caso discreto) ca ca ca A f.d. conjunta do par aleat´rio discreto (X, Y ) pode ser obtida a custa da f.p. conjunta:2 o ` FX,Y (x, y) = P (X ≤ x, Y ≤ y) P (X = xi , Y = yj ), (x, y) ∈ I 2 . R = (5.5) xi ≤x yj ≤y • Depois de um exemplo intencionalmente trivial considere-se um par aleat´rio um pouco o mais rebuscado para ilustrar o c´lculo da f.d. conjunta. a Exemplo 5.12 — F.d. conjunta (caso discreto) Na transmiss˜o de informa¸ao digital por certo equipamento a probabilidade de um “bit” a c˜ possuir distor¸ao alta, moderada e baixa ´ de 0.01, 0.04 e 0.95, respectivamente. Suponha c˜ e que s˜o transmitidos 3 “bits” de modo independente e que X e Y representam o n´mero a u 3 de “bits” com distor¸ao alta e moderada, respectivamente. c˜ (a) Complete, justificando, as entradas assinaladas com a, b e c, na seguinte tabela da f.p. conjunta do par aleat´rio (X, Y ). o Y X 0 1 2 3 0 a 0.027075 0.000285 0.000001 1 0.108300 0.002280 b 0 2 0.004560 0.000048 0 0 3 0.000064 c 0 0 • Par aleat´rio (X, Y ) o X = n´mero de “bits” com distor¸ao alta, em 3 “bits” emitidos u c˜ Y = n´mero de “bits” com distor¸ao moderada, em 3 “bits” emitidos u c˜ • Obten¸˜o das constantes a, b, c ca Para obter as constantes a e b ´ necess´rio ter em conta que por um lado e a X ∼ binomial(3, 0.01) — i.e., P (X = x) = 3 0.01x (1 − 0.01)3−x , x = 0, 1, 2, 3 x — e que por outro P (X = x) = modo: 2 3 3 y=0 P (X = x, Y = y), x = 0, 1, 2, 3. Deste As propriedades desta fun¸˜o ser˜o descritas na sec¸˜o seguinte. ca a ca Adaptado do Exame de 13 de Julho de 2002. 113
  • 119. a = P (X = 0, Y = 0) 3 = P (X = 0) − P (X = 0, Y = y) y=1 = (1 − 0.01)3 − (0.108300 + 0.004560 + 0.000064) = 0.857375 b = P (X = 2, Y = 1)   1 = P (X = 2) −  P (X = 2, Y = y) + P (X = 2, Y = 3) y=0 3! 0.012 × (1 − 0.01)1 − (0.000285 + 0 + 0) 2!(3 − 2)! = 0.000012 = c = P (X = 1, Y = 3) = P (∅) = 0. • Nota Comece-se por considerar que a v.a. Z = 3 − X − Y representa o n´mero “bits” com distor¸˜o baixa, em 3 “bits” emitidos e refira-se que u ca Z ∼ binomial(3, 0.95). Ent˜o importa notar que, embora os eventos {X = a 0, Y = 0} e {Z = 3} sejam equivalentes, os eventos {X = 2, Y = 1} e Z = 3 n˜o o s˜o, pelo que a a a = P (X = 0, Y = 0) = P (3 “bits” com distor¸ao baixa) c˜ = P (Z = 3) = 0.953 = 0.857375 e, no entanto, b = P (X = 2, Y = 1) = P (0 “bits” com distor¸ao baixa) c˜ = P (Z = 0) = (1 − 0.95)3 = 0.000125. 114
  • 120. Ali´s, h´ quatro situa¸oes em que ocorre {Z = 0}, s˜o elas a a c˜ a {X = 0, Y = 3}, {X = 1, Y = 2}, {X = 2, Y = 1} e {X = 3, Y = 0}. P (Z = 0) = P (0 “bits” com distor¸ao baixa) c˜ = (1 − 0.95)3 = 0.000125 = P (X = 0, Y = 3) + P (X = 1, Y = 2) +P (X = 2, Y = 1) + P (X = 3, Y = 0) = 0.000064 + 0.000048 + 0.000012 + 0.000001 = 0.000125. (b) Determine a probabilidade de registar-se a transmiss˜o de n˜o mais de dois “bits” a a com distor¸ao alta e quando muito um “bit” com distor¸˜o moderada. c˜ ca • Probabilidade pedida P (X ≤ 2, Y ≤ 1) = FX,Y (2, 1) 2 1 P (X = x, Y = y) = x=0 y=0 = 0.857375 + 0.108300 + 0.027075 + 0.002280 +0.000285 + 0.000012 • = 0.995327. Exemplo 5.13 — F.p. conjunta (e algo mais) Um painel met´lico ´ classificado de acordo com: a e • X = n´mero de defeitos que possui (0,1,2,3 defeitos) u • Y = n´mero da f´brica que o produz (Fab.1 e Fab.2). u a Estudos levados a cabo levam a crer que a f.p. conjunta de (X, Y ) ´ dada pela seguinte e tabela: X 0 1 2 3 Y 1 2 1 8 1 16 3 16 1 8 1 16 1 16 1 8 1 4 Calcule a probabilidade de um painel met´tico seleccionado ao acaso: a 115
  • 121. (a) possuir 2 defeitos e ter sido produzido pela Fab.1; • Par aleat´rio (X, Y ) o X = n´mero de defeitos que o painel possui u Y = n´mero da f´brica que o produz u a • Probabilidade pedida P (X = 2, Y = 1) = 3 . 16 (b) possuir somente 2 defeitos; • Probabilidade pedida P (X = 2) = P (X = 2, Y = 1) + P (X = 2, Y = 2) 3 1 = + 16 8 5 . = 16 (c) ser produzido pela Fab.1. • Probabilidade pedida 3 P (X = x, Y = 1) P (Y = 1) = x=0 1 1 3 1 + + + 8 16 16 8 1 = . 2 = • As al´ ıneas (b) e (c) do Exemplo 5.13 sugerem a defini¸ao das f.p. de X e de Y , que se c˜ dir˜o f.p. marginais. a Defini¸˜o 5.14 — F.p. marginais de X e de Y ca A f.p. marginal de X define-se ` custa da f.p. conjunta do par aleat´rio (X, Y ):4 a o P (X = x) = P (X = x, Y = y). (5.6) y A f.p. marginal de Y obt´m-se de modo an´logo:5 e a P (Y = y) = P (X = x, Y = y). (5.7) x • 4 Caso a f.p. conjunta esteja organizada numa tabela como as duas descritas acima, a f.p. marginal de X obt´m-se somando linha a linha. e 5 Do mesmo modo a f.p. marginal de Y obt´m-se somando coluna a coluna ao lidar-se com tabelas e como as duas anteriores. 116
  • 122. Exerc´ ıcio 5.15 — F.p. marginais Retome o Exemplo 5.13 e obtenha as f.p. marginais de X e de Y . • ´ Nota 5.16 — E recorrendo as f.p. marginais da v.a. X e a da v.a. Y que se obt´m ` e • FX (x), E(X), V (X), etc. • FY (y), E(Y ), V (Y ), etc. • Defini¸˜o 5.17 — F.d. marginais de X e de Y (caso discreto) ca Pode obter-se as f.d. marginais de X e de Y quer a custa das f.p. destas ` v.a. unidimensionais, quer recorrendo a f.p. conjunta: ` FX (x) = P (X ≤ x) = P (X = xi ) xi ≤x P (X = xi , Y = y), x ∈ I R = (5.8) xi ≤x y FY (y) = P (Y ≤ y) P (Y = yj ) = yj ≤y P (X = x, Y = yj ), y ∈ I R. = (5.9) yj ≤y x • Motiva¸˜o 5.18 — F.p. condicionais ca ´ importante averiguar de que modo o registo de uma observa¸˜o de uma das v.a. do par E ca aleat´rio poder´ vir a influenciar o comportamento probabil´ o a ıstico da outra v.a. Para o efeito ser´ necess´rio definir f.p. condicionais. a a • Defini¸˜o 5.19 — F.p. condicionais ca • F.p. de X condicional a Y = y P (X = x, Y = y) P (X = x|Y = y) = , se P (Y = y) > 0. P (Y = y) • F.p. de Y condicional a X = x P (X = x, Y = y) P (Y = y|X = x) = , se P (X = x) > 0. P (X = x) (5.10) (5.11) • 117
  • 123. Nota 5.20 — V.a. condicionais Ao efectuar semelhantes condicionamentos passamos a lidar com duas v.a. unidimensionais — X|Y = y e Y |X = x — pelo que faz sentido calcular f.d., valores esperados, variˆncias, a etc. em todo o caso ditas/os condicionais. • Defini¸˜o 5.21 — F.d. condicionais (caso discreto) ca • F.d. de X condicional a Y = y 6 FX|Y =y (x) = P (X ≤ x|Y = y) P (X = xi |Y = y) = xi ≤x = P (X = xi , Y = y) , x∈I R P (Y = y) xi ≤x • F.d. de Y condicional a X = x (5.12) 7 FY |X=x (y) = P (Y ≤ y|X = x) P (Y = yj |X = x) = yj ≤y = P (X = x, Y = yj ) , y∈I R. P (X = x) yj ≤y (5.13) • Exemplo 5.22 — F.p. e f.d. condicionais (caso discreto) Responda `s seguintes quest˜es que dizem respeito ao Exemplo 5.13. a o (a) Determine a probabilidade de um painel met´lico possuir um defeito sabendo que a foi produzido pela Fab.2. • Par aleat´rio (X, Y ) o X = n´mero de defeitos que o painel possui u Y = n´mero da f´brica que o produz u a • F.p. conjunta de (X, Y ) Conv´m recordar que esta fun¸ao pode ser condensada na seguinte tabela: e c˜ 6´ 7 E necess´rio que P (Y = y) > 0 para definir esta fun¸˜o. a ca Analogamente, esta f.d. s´ faz sentido se P (X = x) > 0. o 118
  • 124. Y X 1 0 1 2 3 2 1 8 1 16 3 16 1 8 1 16 1 16 1 8 1 4 • Probabilidade pedida P (X = 1, Y = 2) P (Y = 2) 1/16 = 1/16 + 1/16 + 1/8 + 1/4 1/16 = 1/2 1 . = 8 P (X = 1|Y = 2) = (b) Calcule a probabilidade de um painel met´lico possuir quando muito um defeito, a quando se sabe de antem˜o que foi produzido pela Fab.2. a • Probabilidade pedida P (X ≤ 1|Y = 2) = FX|Y =2 (1) 1 1 P (X = x|Y = 2) = = x=0 P (X = x, Y = 2) P (Y = 2) x=0 1/16 1/16 + 1/2 1/2 1 . = 4 = • Defini¸˜o 5.23 — Valores esperados condicionais (caso discreto) ca • Valor esperado de X condicional a Y = y E(X|Y = y) = x P (X = x|Y = y) (5.14) x • Valor esperado de Y condicional a X = x E(Y |X = x) = y P (Y = y|X = x). (5.15) y • 119
  • 125. Defini¸˜o 5.24 — Variˆncias condicionais (caso discreto) ca a • Variˆncia de X condicional a Y = y a V (X|Y = y) = E(X 2 |Y = y) − E 2 (X|Y = y) 2 2 x P (X = x|Y = y) − = x x P (X = x|Y = y) (5.16) x • Variˆncia de Y condicional a X = x a V (Y |X = x) = E(Y 2 |X = x) − E 2 (Y |X = x) 2 y 2 P (Y = y|X = x) − = y y P (Y = y|X = x) . (5.17) y • Exemplo 5.25 — Valor esperado condicional (e n˜o s´) a o Uma firma envia dois tipos de faxes. O primeiro tipo de fax requer 40 segundos para a transmiss˜o de cada p´gina ao passo que o segundo tipo requer 60 segundos para essa a a transmiss˜o. a Considere que a v.a. X representa o n´mero de p´ginas de cada fax e Y a dura¸ao u a c˜ da transmiss˜o de todo o fax. Ap´s um estudo detalhado, baseado em centenas de a o transmiss˜es de fax, a firma ´ da opini˜o que a fun¸ao de probabilidade conjunta do o e a c˜ par aleat´rio (X, Y ) ´ igual a: o e X 1 2 3 40 0.15 0 0 60 0.10 0 0 Y 80 0 0.30 0 120 0 0.35 0 180 0 0 0.10 Compare o valor esperado da dura¸˜o da transmiss˜o de um fax e a dura¸˜o esperada ca a ca 8 da transmiss˜o de um fax sabendo que tem 2 p´ginas. O que conclui? a a • Par aleat´rio (X, Y ) o X = n´mero de p´ginas de cada fax u a Y = dura¸˜o (em segundos) da transmiss˜o do fax ca a 8 Adaptado do Exame de 17 de Janeiro de 2004. 120
  • 126. • F.p. marginal de Y Obt´m-se somando as entradas da tabela da f.p. conjunta de (X, Y ), coluna a coluna: e 3 P (Y = y) = P (X = x, Y = y) x=1 =                          0.15, 0.10, 0.30, 0.35, 0.10, 0, y = 40 y = 60 y = 80 y = 120 y = 180 outros valores de y • Valor esperado de Y y × P (Y = y) E(Y ) = y = 40 × 0.15 + 60 × 0.10 + 80 × 0.30 + 120 × 0.35 + 160 × 0.10 = 96 segundos • Nova v.a. Y |X = 2 = dura¸ao da transmiss˜o do fax sabendo que tem 2 p´ginas c˜ a a • F.p. de Y condicional a {X = 2} Ao notar que P (X = 2) = y P (X = 2, Y = y) = 0 + 0 + 0.30 + 0.35 + 0 = 0.65 e que os valores poss´ ıveis para a dura¸ao da transmiss˜o de fax com 2 p´ginas s˜o 80 c˜ a a a e 120 segundos, segue-se: P (X = 2, Y = y) P (Y = y|X = 2) = P (X = 2) =   0.30  0.65     0.35 0.65 = = 6 , 13 7 , 13 0, y = 80 y = 120 outros valores de y • Valor esperado de Y condicional a {X = 2} E(Y |X = 2) = y × P (Y = y|X = 2) y = 80 × = 6 7 + 120 × 13 13 1320 13 101.54 segundos 121
  • 127. • Conclus˜o — Como E(Y ) = E(Y |X = 2) pode adiantar-se que o conhecimento a do n´mero de p´ginas do fax altera a dura¸ao esperada da transmiss˜o do mesmo. u a c˜ a ˜ Logo as v.a. X e Y influenciam-se uma a outra; ou por outras palavras: X e Y nao ` ˜ sao v.a. independentes. • Exerc´ ıcio 5.26 — Retomemos os dados do Exemplo 5.13. (a) Prove que o n´mero esperado de defeitos de um painel met´lico que se sabe ter sido u a 17 produzido pela Fab.2, E(X|Y = 2), ´ igual a 8 . e (b) Compare o valor esperado condicional obtido em (a) com E(X) (por sinal igual a 15 ). Comente. • 8 Motiva¸˜o 5.27 — (In)Dependˆncia ca e De um modo geral as v.a. que constituem um par aleat´rio influenciam-se mutuamente o como no exemplo anterior, ou seja, s˜o dependentes. Outras h´ em que tal n˜o acontece. a a a Com efeito o conceito de independˆncia entre (dois) eventos pode ser estendido a (pares e de) v.a. • Defini¸˜o 5.28 — Independˆncia (caso discreto) ca e As v.a. discretas X e Y dizem-se independentes — escrevendo-se neste caso X⊥ Y — se ⊥ P (X = x, Y = y) = P (X = x) × P (Y = y), ∀(x, y) ∈ I 2 , R (5.18) i.e., caso seja poss´ escrever a f.p. conjunta do par aleat´rio discreto (X, Y ) a custa do ıvel o ` produto das f.p. marginais de X e de Y . • Nota 5.29 — Independˆncia (caso discreto) e A Equa¸˜o (5.18), que define independˆncia entre as v.a. discretas X e Y , ´ equivalente a ca e e FX,Y (x, y) = FX (x) × FY (y), ∀(x, y) ∈ I 2 . R (5.19) Ou seja, se X⊥ Y ´ tamb´m poss´ ⊥ e e ıvel escrever a f.d. conjunta do par aleat´rio discreto o (X, Y ) a custa do produto das f.d. marginais de X e de Y . Para al´m disso, caso X⊥ Y , ` e ⊥ segue-se: • P (X = x|Y = y) = P (X = x), ∀(x, y) ∈ I 2 R • E(X|Y = y) = E(X), ∀y ∈ I R • V (X|Y = y) = V (X), ∀y ∈ I etc., R, como tal o conhecimento de Y n˜o vem influenciar o comportamento probabil´ a ıstico de X. 2 Analogamente, P (Y = y|X = x) = P (Y = y), ∀(x, y) ∈ I , etc., caso X⊥ Y . R ⊥ • 122
  • 128. Exemplo/Exerc´ ıcio 5.30 — Independˆncia (caso discreto) e O n´mero de port´teis (X) e PCs (Y ) vendidos diariamente numa loja de material u a inform´tico tˆm fun¸ao de probabilidade conjunta dada parcialmente pela tabela abaixo:9 a e c˜ X Y 1 0.1 0.1 0.1 0 0.1 0.2 0 0 1 2 2 0.3 0.1 a (a) Complete a tabela e prove que X e Y s˜o v.a. dependentes. a • Par aleat´rio (X, Y ) o X = n´mero de port´teis vendidos diariamente u a Y = n´mero de PCs vendidos diariamente u • Obten¸˜o de a ca 2 2 P (X = x, Y = y) = 1 a : x=0 y=0 0.1 + 0.1 + 0.3 + 0.2 + 0.1 + 0.1 + 0 + 0.1 + a = 1 a=0 • Dependˆncia entre X e Y e Se por um lado P (X = 0, Y = 0) = 0.1, por outro 2 P (X = 0) × P (Y = 0) = P (X = 0, Y = y) y=0 2 × P (X = x, Y = 0) x=0 = (0.1 + 0.1 + 0.3) × (0.1 + 0.2 + 0) = 0.15. Deste modo conclui-se que P (X = 0, Y = 0) = P (X = 0) × P (Y = 0), pelo que X e Y s˜o v.a. dependentes. a 9 Adaptado do Teste B de 22 de Abril de 2006. 123
  • 129. (b) Calcule V (X|Y ≥ 1). • Nova v.a. X|Y ≥ 1 = n´mero de port´teis vendidos em certo dia, sabendo que ocorreu u a venda de PCs • F.p. de X condicional a {Y ≥ 1} Uma vez que P (Y ≥ 1) = P (Y = 1) + P (Y = 2) 2 2 = P (X = x, Y = 1) + x=0 P (X = x, Y = 2) x=0 = (0.1 + 0.1 + 0.1) + (0.3 + 0.1 + 0) = 0.7, tem-se P (X = x, Y ≥ 1) P (Y ≥ 1) P (X = x, Y = 1) + P (X = x, Y = 2) = P (Y ≥ 1) P (X = x|Y ≥ 1) =   0.1+0.3  0.7    0.1+0.1  0.7 =  0.1+0  0.7     0, 4 = 7, x = 0 2 = 7, x = 1 1 = 7, x = 2 restantes valores de x • Valor esperado de X|Y ≥ 1 2 x × P (X = x|Y ≥ 1) E(X|Y ≥ 1) = x=0 = 0× = 4 2 1 +1× +2× 7 7 7 4 7 • 2o. momento de X|Y ≥ 1 2 E(X 2 |Y ≥ 1) = x2 × P (X = x|Y ≥ 1) x=0 = 02 × = 4 2 1 + 12 × + 22 × 7 7 7 6 7 124
  • 130. • Variˆncia de X|Y ≥ 1 a V (X|Y ≥ 1) = E(X 2 |Y ≥ 1) − E 2 (X|Y ≥ 1) 4 2 6 − = 7 7 26 = . 49 (c) Obtenha o valor esperado do n´mero de port´teis vendidos diariamente, tirando u a partido do facto de E(X) = E[E(X|Y )] E(X|Y = y) × P (Y = y), = y∈I Y R j´ que a v.a. E(X|Y ) toma os valores E(X|Y = y) com probabilidade P (Y = y), a para y ∈ I Y . R • 125
  • 131. 5.2 Duas vari´veis a Distribui¸oes c˜ aleat´rias o conjuntas, cont´ ınuas. marginais e condicionais. Independˆncia. e Motiva¸˜o 5.31 — F.d.p. conjunta ca A caracteriza¸˜o probabil´ ca ıstica de uma v.a. unidimensional cont´ ınua faz-se recorrendo a f.d.p. N˜o surpreende pois que ao lidar com um par aleat´rio (X, Y ) cont´ ` a o ınuo seja necess´rio definir f.d.p. conjunta. a • Defini¸˜o 5.32 — Par aleat´rio cont´ ca o ınuo e f.d.p. conjunta A par aleat´rio (X, Y ) diz-se cont´ o ınuo, se tomar valores num conjunto de valores infinito n˜o numer´vel, I X,Y ⊂ I 2 , e existir uma fun¸ao denominada de f.d.p. conjunta, a a R R c˜ fX,Y (x, y), satisfazendo as propriedades seguintes: • fX,Y (x, y) ≥ 0, ∀(x, y) ∈ I 2 R • +∞ +∞ −∞ −∞ fX,Y (x, y)dydx = 1 • P [(X, Y ) ∈ A] = A fX,Y (x, y)dydx, ∀A ⊂ I 2 . R • Exemplo 5.33 — F.d.p. conjunta O par aleat´rio (X, Y ) representa os tempos de vida, em milhares de horas, de duas o componentes principais (A e B) de um sistema de controlo e possui f.d.p. conjunta dada por   fX,Y (x, y) =  1, 0 < x < 1, 0 < y < 1 0, c.c. Calcule a probabilidade de X e de Y excederem 0.50 e 0.75, respectivamente. • Par aleat´rio o X = tempo de vida da componente A (em 103 h) Y = tempo de vida da componente B em 103 h) • F.d.p. de (X, Y ) fX,Y (x, y) =    1, 0 < x < 1, 0 < y < 1 0, c.c. 126 (5.20)
  • 132. • Probabilidade pedida +∞ +∞ P (X > 0.5, Y > 0.75) = 0.75 1 0.5 1 fX,Y (x, y)dy dx dy dx = 0.5 1 = 0.5 1 = 0.75 y|1 dx 0.75 0.25 dx 0.5 = 0.125 Importa notar que P (X > 0.5, Y > 0.75) = 1 − P (X ≤ 0.5, Y ≤ 0.75). • Defini¸˜o 5.34 — F.d. conjunta (caso cont´ ca ınuo) A f.d. conjunta do par aleat´rio cont´ o ınuo (X, Y ) define-se a custa da sua f.d.p. conjunta: ` FX,Y (x, y) = P (X ≤ x, Y ≤ y) x y −∞ −∞ = fX (u, v)dvdu, ∀(x, y) ∈ I 2 , R (5.21) que corresponde, obviamente, ao volume sob a superf´ da f.d.p. conjunta na regi˜o ıcie a (−∞, x] × (−∞, y]. • Proposi¸˜o 5.35 — Propriedades da f.d. conjunta de par aleat´rio (discreto ou ca o cont´ ınuo) A f.d. conjunta de um par aleat´rio (X, Y ) satisfaz as propriedades quer no caso discreto, o ´ uma: quer no caso cont´ ınuo. E 1. fun¸˜o cont´ ca ınua ` direita (no caso discreto) e cont´ a ınua a direita e a esquerda (no ` ` caso cont´ ınuo) 2. fun¸˜o mon´tona n˜o decrescente em qualquer das vari´veis x e y. ca o a a Para al´m disso verifica: e 3. 0 ≤ FX,Y (x, y) ≤ 1 4. FX,Y (−∞, −∞) = 0 FX,Y (+∞, +∞) = 1 127
  • 133. 5. FX,Y (x, +∞) = FX (x), ∀x ∈ I R FX,Y (+∞, y) = FY (y), ∀y ∈ I R. Por seu lado, ao considerar-se a regi˜o a A = {(x, y) ∈ I 2 : a < x ≤ b, c < y ≤ d} R (onde a < b e c < d), tem-se: 6. P [(X, Y ) ∈ A] = FX,Y (b, d) − FX,Y (b, c) − FX,Y (a, d) + FX,Y (a, c). • Exerc´ ıcio 5.36 — Demonstre a propriedade 6. da Proposi¸ao 5.35 recorrendo a gr´ficos c˜ a e ` avalia¸˜o sucessiva da f.d. conjunta. a ca • Exemplo/Exerc´ ıcio 5.37 — F.d. conjunta (caso cont´ ınuo) Sejam X e Y v.a. que representam, respectivamente, a largura (em dm) e o comprimento (em dm) de uma pe¸a rectangular. Admita que a f.d.p. conjunta de (X, Y ) ´ dada por c e fX,Y (x, y) =    2, 0 < x < y < 1 0, c.c. (5.22) (a) Represente graficamente o contradom´ ınio e a f.d.p. conjunta do par aleat´rio. o • Par aleat´rio o X = largura da pe¸a rectangular (em dm) c Y = comprimento da pe¸a rectangular (em dm) c • Representa¸˜o gr´fica do contradom´ ca a ınio de (X, Y ) • Gr´fico da f.d.p. de (X, Y ) a 128
  • 134. (b) Obtenha a probabilidade de a largura e o comprimento da pe¸a n˜o excederem 5cm c a e 7.5cm, respectivamente. • Probabilidade pedida P (X ≤ 0.5, Y ≤ 0.75) = FX,Y (0.5, 0.75) 0.5 0.75 −∞ 0.5 −∞ 0.75 0 u = fX,Y (u, v)dv du 2 dv du = 0.5 = 0 0.75 2v|u du 0.5 (0.75 − u) du = 2 0 = 2 0.75u − u2 2 0.5 0 = 0.5. (c) Verifique que a f.d. conjunta deste par aleat´rio ´ dada por o e           0, 2x y − FX,Y (x, y) =  2x 1 −         2 y , 1, x 2 x 2 x < 0 ou y < 0 , 0<x<y<1 , 0 < x < 1, y > 1 x > 1, 0 < y < 1 x > 1, y > 1. • Como seria de esperar a apresenta¸˜o que se segue muito se assemelha a da sec¸˜o ca ` ca anterior. H´ uma diferen¸a obvia: ao inv´s de se somar, integrar-se-´, afinal estamos a a c ´ e a lidar com pares aleat´rios cont´ o ınuos. Defini¸˜o 5.38 — F.d.p. marginais de X e de Y ca As f.p. marginais de X e de Y obtˆm-se a custa da f.d.p. conjunta do par aleat´rio cont´ e ` o ınuo (X, Y ): +∞ fX (x) = fY (y) = −∞ +∞ −∞ fX,Y (x, y)dy (5.23) fX,Y (x, y)dx. (5.24) • 129
  • 135. Defini¸˜o 5.39 — F.d. marginais de X e de Y (caso cont´ ca ınuo) As f.d. marginais de X e de Y calculam-se quer ` custa das f.d.p. marginais destas a v.a. unidimensionais, quer por recurso ` f.d.p. conjunta ou a f.d. conjunta: a ` FX (x) = P (X ≤ x) x = −∞ x fX (u)du +∞ = −∞ −∞ fX,Y (u, y)dydu = FX,Y (x, +∞), x ∈ I R (5.25) FY (y) = P (Y ≤ y) y = −∞ y fY (v)dv +∞ = −∞ −∞ fX,Y (x, y)dxdu = FX,Y (+∞, y), y ∈ I R. (5.26) • Exemplo/Exerc´ ıcio 5.40 — F.d.p. marginais de X e de Y Retome o Exemplo/Exerc´ 5.37. ıcio (a) Verifique que fX (x) = fY (y) =   2(1 − x), 0 < x < 1  0, c.c.   2y, 0 < y < 1  0, c.c. (5.28) • Par aleat´rio o X = largura da pe¸a rectangular (em dm) c Y = comprimento da pe¸a rectangular (em dm) c • F.d.p. conjunta de (X, Y )   2, 0 < x < y < 1 0, c.c., fX,Y (x, y) =  • F.d.p. marginal de X +∞ fX (x) = = −∞    (5.27) fX,Y (x, y)dy 1 x 2 dy = 2(1 − x), 0 < x < 1 0, c.c. 130
  • 136. • F.d.p. marginal de Y +∞ fY (y) = fX,Y (x, y)dx −∞   y 2 dx 0 = 0,  = 2y, 0 < y < 1 c.c. (b) Certifique-se que a probabilidade da largura da pe¸a exceder 8cm ´ igual a 0.04. • c e Defini¸˜o 5.41 — F.d.p., f.d., valores esperados e variˆncias condicionais (caso ca a cont´ ınuo) • F.d.p. de X condicional a Y = y fX|Y =y (x) = fX,Y (x, y) , se fY (y) > 0 fY (y) (5.29) • F.d. de X condicional a Y = y FX|Y =y (x) = P (X ≤ x|Y = y) x = −∞ fX|Y =y (u)du, x ∈ I R (5.30) • Valor esperado de X condicional a Y = y +∞ E(X|Y = y) = −∞ x fX|Y =y (x)dx (5.31) • Variˆncia de X condicional a Y = y a V (X|Y = y) = E(X 2 |Y = y) − E 2 (X|Y = y) +∞ = −∞ x2 fX|Y =y (x)dx − 2 +∞ −∞ x fX|Y =y (x)dx . Estas fun¸˜es e parˆmetros definem-se de modo semelhante para Y dado X = x. co a (5.32) • Exemplo 5.42 — Valores esperados condicionais (caso cont´ ınuo) Responda `s seguintes quest˜es referentes ao Exemplo/Exerc´ 5.37. a o ıcio (a) Verificou-se que o comprimento da pe¸a ´ igual a 7.5cm. Obtenha a probabilidade c e da largura exceder 5cm. • Par aleat´rio o X = largura da pe¸a rectangular (em dm) c Y = comprimento da pe¸a rectangular (em dm) c 131
  • 137. • F.d.p. conjunta de (X, Y ) fX,Y (x, y) =    2, 0 < x < y < 1 0, c.c., • F.d.p. marginal de Y fY (y) =    2y, 0 < y < 1 0, c.c. • Nova v.a. X|Y = 0.75 • F.d.p. de X condicional a {Y = 0.75} fX|Y =0.75 (x) = fX,Y (x, 0.75) fY (0.75) 2 2×y  =   0, = 1 , 0.75 0 < x < y = 0.75 c.c. • Probabilidade pedida P (X > 0.5|Y = 0.75) = 1 − P (X ≤ 0.5|Y = 0.75) = 1 − FX|Y =0.75 (0.5) 0.5 = 1− −∞ 0.5 = 1− 0 fX|Y =0.75 (u) du 1 du 0.75 1 = . 3 (b) Calcule a largura esperada sabendo que o registo do comprimento foi de 8cm. Compare o valor obtido com a largura esperada e comente. • Nova v.a. X|Y = 0.8 • F.d.p. de X condicional a {Y = 0.8} fX|Y =0.8 (x) =   1 , 0 < x < y = 0.8 0, c.c. 0.8  132
  • 138. • Valor esperado de X condicional a {Y = 0.8} +∞ E(X|Y = 0.8) = −∞ 0.8 x × fX|Y =0.8 (x) dx x× = 0 = x2 0.8 × 2 1 dx 0.8 0.8 0 = 0.4 • Valor esperado de X +∞ E(X) = −∞ 1 x × fX (x) dx x × 2(1 − x) dx = 0 x2 x3 = 2 − 2 3 1 0 1 = 3 = E(X|Y = 0.8) • Coment´rio — O conhecimento do comprimento do comprimento da pe¸a a c influencia claramente o valor esperado da respectiva largura. Pode concluir-se ˜ que X e Y sao v.a. dependentes. • Defini¸˜o 5.43 — Independˆncia (caso cont´ ca e ınuo) As v.a. cont´ ınuas X e Y dizem-se independentes, caso fX,Y (x, y) = fX (x) × fY (y), ∀(x, y) ∈ I 2 , R (5.33) i.e., se formos capazes de escrever a f.d.p. conjunta do par aleat´rio cont´ o ınuo (X, Y ) como o produto das f.d.p. marginais de X e de Y . Equivalentemente, X⊥ Y se pudermos factorizar ⊥ a f.d. conjunta de (X, Y ) no produto das f.d. marginais de X e de Y : FX,Y (x, y) = FX (x) × FY (y), ∀(x, y) ∈ I 2 . R (5.34) • 133
  • 139. Exemplo/Exerc´ ıcio 5.44 — (In)dependˆncia (caso cont´ e ınuo) (a) Prove que as v.a. comprimento e a largura definidas no Exemplo/Exerc´ 5.37 s˜o ıcio a dependentes recorrendo para o efeito ` equa¸ao (5.33). a c˜ • Averigua¸˜o da (in)dependˆncia entre X e Y ca e Se por um lado   fX,Y (x, y) =  2, 0 < x < y < 1 0, c.c., por outro lado fX (x) × fY (y) =   2(1 − x) × 2y, 0 < x < 1, 0 < y < 1  0, c.c. Logo fX,Y (x, y) = fX (x) × fY (y)), i.e., X e Y s˜o v.a. dependentes. a (b) Reescreva a Nota 5.2910 para o caso cont´ ınuo. 10 Nesta nota podem encontrar-se algumas consequˆncias da independˆncia entre as v.a. X e Y . e e 134 •
  • 140. 5.3 Covariˆncia e correla¸˜o. Propriedades. a ca Motiva¸˜o 5.45 — Covariˆncia e correla¸˜o ca a ca ´ crucial obter medidas que avaliem a associa¸ao entre duas v.a. Esta avalia¸ao pode E c˜ c˜ efectuar-se quer em termos • absolutos, calculando a covariˆncia entre X e Y , quer em termos a • relativos, determinando a correla¸˜o entre X e Y . ca Defini¸˜o 5.46 — Covariˆncia ca a Representa-se usualmente por cov(X, Y ) 11 • e ´ definida por e cov(X, Y ) = E{[X − E(X)] × [Y − E(Y )]} = E(XY ) − E(X)E(Y ), (5.35) que no caso discreto se escreve x y P (X = x, Y = y) cov(X, Y ) = x y x P (X = x) × − x y P (Y = y) (5.36) y e no caso cont´ ınuo +∞ +∞ cov(X, Y ) = −∞ −∞ x y fX,Y (x, y) dydx +∞ +∞ − −∞ x fX (x) dx × −∞ y fY (y) dy. (5.37) • Proposi¸˜o 5.47 — Propriedades da covariˆncia ca a Se X e Y forem v.a. independentes ent˜o a covariˆncia entre X e Y ´ nula. No entanto, a a e a implica¸˜o no sentido inverso n˜o ´ necessariamente verdadeira. Para al´m disso, ca a e e se a covariˆncia entre X e Y for n˜o nula pode concluir-se imediatamente que X e a a Y s˜o v.a. dependentes. Estes resultados s˜o algumas das propriedades da covariˆncia a a a enunciadas j´ de seguida: a 1. X⊥ Y ⇒ cov(X, Y ) = 0 ⊥ 2. cov(X, Y ) = 0 ⇒ X⊥ Y ⊥ 11 Ou por σXY . 135
  • 141. 3. cov(X, Y ) = 0 ⇒ X ⊥ Y ⊥ 4. cov(X, Y ) = cov(Y, X) 5. cov(X, X) = V (X) 6. cov(aX + b, Y ) = a cov(X, Y ) 7. cov(X + Z, Y ) = cov(X, Y ) + cov(Z, Y ) 8. cov n i=1 Xi , n j=1 Yj = 9. cov n i=1 Xi , n j=1 n i=1 Xj = n i=1 n j=1 cov(Xi , Yj ) V (Xi ) + 2 × n i=1 n j=i+1 cov(Xi , Xj ). • Exerc´ ıcio 5.48 — Obtenha a covariˆncia entre as v.a. que constituem os pares aleat´rios a o definidos nos Exerc´ ıcios 5.13 e 5.37. • Motiva¸˜o 5.49 — Correla¸˜o ca ca A covariˆncia entre X e Y ´ uma medida absoluta de associa¸ao entre estas duas v.a., a e c˜ como tal com algumas desvantagens: • n˜o ´ adimensional; e a e • o seu valor absoluto deve ser interpretado com alguma cautela j´ que a covariˆncia a a pode ser alterada de modo arbitr´rio ao efectuar-se, por exemplo, uma mudan¸a de a c escala como se pˆde ver na propriedade 6 da Proposi¸ao 5.47. o c˜ H´ pois a necessidade de quantificar em termos relativos12 a associa¸ao entre X e Y a a c˜ ` custa de uma medida adimensional e pass´ de interpreta¸ao. ıvel c˜ • Defini¸˜o 5.50 — Correla¸˜o ca ca Ser´ representada por corr(X, Y ) a corr(X, Y ) = cov(X, Y ) 13 e ´ igual a e . (5.38) V (X) V (Y ) Caso corr(X, Y ) = 0 (resp. corr(X, Y ) = 0) as v.a. dizem-se correlacionadas (resp. n˜o a correlacionadas). • 12 13 Por exemplo, pondo de parte a dispers˜o de X e Y . a σXY Ou por ρX,Y = σX σY 136
  • 142. Proposi¸˜o 5.51 — Propriedades da correla¸˜o ca ca Dada a forma como a correla¸ao foi definida a custa da covariˆncia n˜o surpreende que c˜ ` a a aquela medida de associa¸˜o relativa “herde” algumas propriedades da covariˆncia j´ ca a a enunciadas: 1. X⊥ Y ⇒ corr(X, Y ) = 0 ⊥ 2. corr(X, Y ) = 0 ⇒ X⊥ Y ⊥ 3. corr(X, Y ) = 0 ⇒ X ⊥ Y ⊥ 4. corr(X, Y ) = corr(Y, X). Importa ainda assinalar que: 5. corr(X, X) = 1 6. corr(aX + b, Y ) = corr(X, Y ) 7. −1 ≤ corr(X, Y ) ≤ 1, para qualquer par de v.a. 8. corr(X, Y ) = −1 ⇔ Y = aX + b, a < 0 9. corr(X, Y ) = 1 ⇔ Y = aX + b, a > 0. • Nota 5.52 — Interpreta¸˜o (do sinal) da correla¸˜o ca ca As propriedades 6 e 7 da Proposi¸ao 5.51 sugerem que afirmemos que c˜ • a correla¸ao quantifica a associa¸ao linear entre X e Y . c˜ c˜ Assim, se o valor absoluto de corr(X, Y ) estiver pr´ximo de 1 pode dizer-se que a o associa¸ao entre X e Y ´ praticamente linear. c˜ e Por seu lado, o sinal da correla¸˜o entre X e Y deve ser interpretado do seguinte ca modo: • caso corr(X, Y ) > 0 (resp. corr(X, Y ) < 0), pode afirmar-se que se X cresce ent˜o Y tem tendˆncia a crescer (resp. decrescer). a e S˜o de evitar, no entanto, interpreta¸oes abusivas desta medida relativa de associa¸ao a c˜ c˜ pois a existˆncia de correla¸˜o entre duas v.a. n˜o implica necessariamente uma rela¸ao e ca a c˜ de causa e efeito entre as mesmas. Basta pensar no n´mero de ninhos de cegonhas e o u n´mero de nascimentos em cidades escandinavas, ou o n´mero de refrigerantes vendidos u u e o n´meros de internamentos por desidrata¸ao, etc. u c˜ • 137
  • 143. Exemplo 5.53 — Correla¸˜o (caso discreto) ca Retome o Exemplo 5.30 e determine o coeficiente de correla¸˜o entre X e Y . Comente. ca • Par aleat´rio (X, Y ) o X = n´mero de port´teis vendidos diariamente u a Y = n´mero de PCs vendidos diariamente u Uma vez que pretende calcular cov(X, Y ) corr(X, Y ) = , V (X) V (Y ) onde cov(X, Y ) = E(XY ) − E(X)E(Y ), ser˜o necess´rios alguns c´lculos auxiliares. a a a • F.p. marginal de X 2 P (X = x, Y = y) P (X = x) = y=0        =       (0.1 + 0.1 + 0.3) = 0.5, x = 0 (0.2 + 0.1 + 0.1) = 0.4, x = 1 (0 + 0.1 + 0) = 0.1, x=2 0, outros valores de x • Valor esperado de X 2 x × P (X = x) E(X) = x=0 = 0 × 0.5 + 1 × 0.4 + 2 × 0.1 = 0.6 • 2o. momento de X 2 2 x2 × P (X = x) E(X ) = x=0 2 = 0 × 0.5 + 12 × 0.4 + 22 × 0.1 = 0.8 • Variˆncia de X a V (X) = E(X 2 ) − E 2 (X) = 0.8 − 0.62 = 0.44 138
  • 144. • F.p. marginal de Y 2 P (Y = y) = P (X = x, Y = y) x=0        =       (0.1 + 0.2 + 0) = 0.3, y=0 (0.1 + 0.1 + 0.1) = 0.3, y = 1 (0.3 + 0.1 + 0) = 0.4, y=2 0, outros valores de y • Valor esperado de Y 2 y × P (Y = y) E(Y ) = y=0 = 0 × 0.3 + 1 × 0.3 + 2 × 0.4 = 1.1 • 2o. momento de Y 2 y 2 × P (Y = y) 2 E(Y ) = y=0 2 = 0 × 0.3 + 12 × 0.3 + 22 × 0.4 = 1.9 • Variˆncia de Y a V (Y ) = E(Y 2 ) − E 2 (Y ) = 1.9 − 1.12 = 0.69 • F.p. conjunta de (X, Y ) X 0 1 2 0 0.1 0.2 0 139 Y 1 0.1 0.1 0.1 2 0.3 0.1 0
  • 145. • Momento cruzado de X e Y de ordem (1, 1) 2 2 xy × P (X = x, Y = y) E(XY ) = x=0 y=0 = 0 × 0 × 0.1 + . . . + 2 × 2 × 0 = 1 × 1 × 0.1 + 1 × 2 × 0.1 + 2 × 1 × 0.1 + 2 × 2 × 0 = 0.5 • Covariˆncia entre X e Y a cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0.5 − 0.6 × 1.1 = −0.16 • Correla¸˜o entre X e Y ca corr(X, Y ) = cov(X, Y ) V (X)V (Y ) −0.16 = √ 0.44 × 0.69 −0.29 • Coment´rio — Visto que corr(X, Y ) a dependentes. −0.29 = 0 pode concluir-se que as v.a. s˜o a Para al´m disso importa notar que corr(X, Y ) < 0, pelo que as v.a. est˜o e a negativamente correlacionadas e apresentam tendˆncia para variarem em sentidos e opostos. Estando o valor de |corr(X, Y )| afastado de 1, pode adiantar-se que as v.a. n˜o est˜o a a linearmente correlacionadas. • 140
  • 146. Exemplo 5.54 — Correla¸˜o (caso cont´ ca ınuo) Na afina¸˜o de um aparelho ´ poss´ ca e ıvel controlar duas vari´veis cont´ a ınuas X e Y . No entanto, estas vari´veis s´ podem ser controladas em simultˆneo e n˜o individualmente. a o a a Com efeito, quando o aparelho est´ afinado, o par aleat´rio cont´ a o ınuo (X, Y ) tem fun¸ao c˜ densidade de probabilidade conjunta constante no triˆngulo 0 < x < 1, 0 < y < x e nula a no resto do plano, i.e.,   fX,Y (x, y) =  k, 0 < x < 1, 0 < y < x 0, outros pares (x, y). Ap´s ter mostrado que k = 2, obtenha o coeficiente de correla¸ao entre X e Y e comente o c˜ 14 o valor obtido. • Obten¸˜o de k ca   fX,Y (x, y) ≥ 0 +∞ +∞ −∞ −∞ fX,Y (x, y)dy dx = 1   k≥0 1 x 0 0 kdy dx = 1 k :   ... k=2 • F.d.p. marginal de X +∞ fX (x) = = fX,Y (x, y)dy −∞   x 2 dy 0  = 2x, 0, 0<x<1 c.c. • Valor esperado de X +∞ E(X) = −∞ 1 x × fX (x) dx x × 2x dx = 0 2x3 = 3 2 = 3 14 1 0 Adaptado do Exame de 24 de Junho de 2006. 141
  • 147. • 2o. momento de X +∞ E(X 2 ) = −∞ 1 x2 × fX (x) dx x2 × 2x dx = 0 1 2x4 = 4 1 = 2 0 • Variˆncia de X a V (X) = E(X 2 ) − E 2 (X) 2 2 1 − = 2 3 1 = 18 • F.d.p. marginal de Y +∞ fY (y) = fX,Y (x, y)dx −∞   1 2 dy =  y 0, = 2(1 − y), 0 < y < 1 c.c. • Valor esperado de Y +∞ y × fY (y) dy E(Y ) = −∞ 1 y × 2(1 − y) dy = 0 = 2y 3 y − 3 1 2 0 1 = 3 • 2o. momento de Y +∞ E(Y 2 ) = −∞ 1 y 2 × fY (y) dy y 2 × 2(1 − y) dy = 0 = 2y 3 2y 4 − 3 4 1 0 1 = 6 142
  • 148. • Variˆncia de Y a V (Y ) = E(Y 2 ) − E 2 (Y ) 1 2 1 − = 6 3 1 = 18 • F.d.p. conjunta de (X, Y ) fX,Y (x, y) =    2, 0 < x < 1, 0 < y < x 0, outros pares (x, y). • Momento cruzado de X e Y de ordem (1, 1) +∞ +∞ E(XY ) = −∞ −∞ x 1 xy × fX,Y (x, y) dydx xy × 2 dy dx = 0 0 1 = xy 2 0 1 = x 0 dx x3 dx 0 = 1 4 • Covariˆncia entre X e Y a cov(X, Y ) = E(XY ) − E(X)E(Y ) 1 1 1 − × = 4 2 3 1 = 36 • Correla¸˜o entre X e Y ca cov(X, Y ) corr(X, Y ) = V (X)V (Y ) 1/36 = = 1/18 × 1/18 1 2 143
  • 149. • Coment´rio — Dado que corr(X, Y ) = 1 > 0 pode concluir-se que as v.a. s˜o a a 2 dependentes e est˜o positivamente correlacionadas pelo que apresentam tendˆncia a e para variarem no mesmo sentido. Mais, como o valor de corr(X, Y ) n˜o est´ pr´ximo de 1, as v.a. n˜o est˜o a a o a a linearmente correlacionadas. • Exerc´ ıcio 5.55 — Determine e interprete a correla¸˜o entre as v.a. que constituem os ca pares aleat´rios definidos no Exemplo 5.13 e no Exemplo/Exerc´ 5.37. o ıcio • 144
  • 150. 5.4 Combina¸oes lineares de vari´veis aleat´rias. c˜ a o Motiva¸˜o 5.56 — Combina¸oes lineares de v.a. ca c˜ ´ frequente estarmos interessados em estudar o comportamento probabil´ E ıstico de • somas (totais) • m´dias (eventualmente ponderadas) e envolvendo diversas v.a. Tratam-se de exemplos daquilo que usualmente se designa de combina¸˜es lineares de v.a. co • Defini¸˜o 5.57 — Combina¸oes lineares de v.a. ca c˜ Sejam X1 , . . . , Xn v.a. e c1 , . . . , cn constantes reais. Ent˜o a v.a. a n Y = ci X i (5.39) i=1 • diz-se uma combina¸ao linear das v.a. X1 , . . . , Xn . c˜ Exemplo 5.58 — Combina¸oes lineares de v.a. c˜ • Xi = n´mero de pe¸as defeituosas em ni seleccionadas no turno hor´rio i (i = u c a 1, . . . , 24) 24 i=1 Xi = n´mero de pe¸as defeituosas em u c hor´rios (um dia) a 24 i=1 ni seleccionadas em 24 turnos • Xi = consumo de electricidade no dia i (i = 1, . . . , 30) 30 i=1 1 30 Xi = consumo mensal de electricidade 30 i=1 Xi = consumo m´dio di´rio de electricidade. e a • A obten¸ao da f.(d.)p. de uma combina¸ao linear nem sempre ´ tarefa f´cil. Pode, no c˜ c˜ e a entanto, adiantar-se o valor esperado de qualquer combina¸ao linear de v.a. e a variˆncia c˜ a de combina¸oes lineares em situa¸oes particulares. c˜ c˜ Proposi¸˜o 5.59 — Valor esperado de combina¸˜o linear de v.a. ca ca n E n ci X i = i=1 ci E(Xi ). (5.40) i=1 Em particular, se ci = 1, para i = 1, . . . , n, tem-se n E n Xi = i=1 E(Xi ). (5.41) • i=1 145
  • 151. Embora o valor esperado de uma combina¸ao linear de v.a. seja igual a combina¸ao c˜ ` c˜ linear dos valores esperados o mesmo est´ longe de acontecer com a variˆncia de uma a a combina¸˜o linear. ca Proposi¸˜o 5.60 — Variˆncia de algumas combina¸˜es lineares de v.a. ca a co V (c1 X1 + c2 X2 ) = c2 V (X1 ) + c2 V (X2 ) + 2c1 c2 cov(X1 , X2 ) 1 2 (5.42) V (X1 + X2 ) = V (X1 ) + V (X2 ) + 2cov(X1 , X2 ) (5.43) V (X1 − X2 ) = V (X1 ) + V (X2 ) − 2cov(X1 , X2 ) (5.44) n V n ci X i i=1 n n c2 V (Xi ) + 2 i = i=1 ci cj cov(Xi , Xj ). (5.45) i=1 j=i+1 Ao lidar-se com v.a. n˜o correlacionadas duas a duas — i.e., se cov(Xi , Xj ) = 0, ∀i = j a — ou com v.a. independentes duas a duas — ou seja, Xi⊥ Xj , ∀i = j —, tem-se: ⊥ n n V c2 V (Xi ). i ci Xi = (5.46) i=1 i=1 E se, para al´m de n˜o correlacionadas ou independentes duas a duas, tivermos ci = 1, e a para i = 1, . . . , n, segue-se n n V V (Xi ). Xi = i=1 (5.47) i=1 • Exemplo 5.61 — Combina¸oes lineares de v.a. (e n˜o s´) c˜ a o Uma componente mecˆnica ´ constitu´ por uma biela e uma manivela cujas massas s˜o a e ıda a normalmente distribu´ ıdas com parˆmetros na tabela seguinte: a Pe¸a c biela manivela Massas Valor esperado Desvio-Padr˜o a 1 0.02 0.8 0.05 Calcule a covariˆncia entre as massas da biela e da manivela, sabendo que a variˆncia da a a 2 15 massa total da componente mecˆnica ´ de 0.0049Kg . a e • Par aleat´rio o X = massa da biela Y = massa da manivela 15 Adaptado do Teste B de 11 de Maio de 2002. 146
  • 152. • Distribui¸˜es de X e Y co 2 X ∼ normal(µX , σX ) 2 Y ∼ normal(µY , σY ) • Parˆmetros a 2 µX = 1, σX = 0.022 2 µY = 0.8, σY = 0.052 • Nova v.a. Z = X + Y = massa total da componente mecˆnica a • Variˆncia de Z a V (Z) = 0.0049Kg 2 • Covariˆncia entre X e Y a V (Z) = V (X) + V (Y ) + 2 × cov(X, Y ) 0.0049 = 0.022 + 0.052 + 2 × cov(X, Y ) 0.0049 − 0.022 − 0.052 cov(X, Y ) = 2 • Assim, conclui-se que cov(X, Y ) = 0.0001. Exerc´ ıcio 5.62 — Combina¸oes lineares de v.a. c˜ Sejam X1 , . . . , Xn v.a. independentes e identicamente distribu´ ıdas (i.i.d.) ` v.a. X — i.e., a Xi ∼i.i.d. X, i = 1, . . . , n — tais que E(Xi ) = E(X) = µ (5.48) V (Xi ) = V (X) = σ 2 , (5.49) para i = 1, . . . , n. Demonstre que Combina¸˜o linear ca Total M´dia aritm´tica e e Valor esperado n i=1 Xi n 1 i=1 Xi n Variˆncia a nµ nσ 2 µ σ2 n • 147
  • 153. Motiva¸˜o 5.63 — Casos especiais de somas de v.a. independentes ca Vimos at´ agora que ´ poss´ e e ıvel adiantar o valor esperado e a variˆncia de somas de a v.a. Resta saber se somos capazes de identificar a distribui¸˜o dessas mesmas somas. A ca resposta ´ afirmativa nalguns casos especiais de somas de v.a. independentes que passamos e a descrever na proposi¸ao seguinte. c˜ • Proposi¸˜o 5.64 — Casos especiais de somas de v.a. independentes; mudan¸a ca c de escala V.a. Combina¸˜o linear ca Obs. Xi ∼indep binomial(ni , p), i = 1, . . . , k k i=1 Xi ∼ binomial Xi ∼indep Poisson(λi ), i = 1, . . . , n n i=1 Xi ∼ Poisson ( n i=1 λi ) 2 Xi ∼indep. normal(µi , σi ), i = 1, . . . , n n i=1 Xi ∼ normal n i=1 µi , n i=1 ci X ∼ exponencial(λ) Xi ∼ normal cX ∼ exponencial λ c k i=1 ni , p n i=1 ci (1) (2) n i=1 µi , 2 σi n 2 i=1 ci (3) 2 σi (4) (5) A tabela traduz o fecho de algumas fam´ ılias de distribui¸oes para opera¸oes como a soma, c˜ c˜ as combina¸oes lineares ou a mudan¸a de escala: c˜ c (1) Propriedade reprodutiva da distribui¸˜o binomial, ao lidar-se com v.a. binomiais ca independentes com probabilidade de sucesso comum; (2) Propriedade reprodutiva da distribui¸ao de Poisson, ao lidar-se com v.a. de Poisson c˜ independentes; (3) Propriedade reprodutiva da distribui¸ao normal, ao lidar-se com v.a. normais c˜ independentes; (4) A combina¸ao linear de normais — independentes mas n˜o necessariamente c˜ a identicamente distribu´ ıdas — ainda tem distribui¸ao normal; c˜ (5) Mudan¸a de escala da distribui¸˜o exponencial. c ca 148 •
  • 154. Exemplo 5.65 — Casos especiais de somas de v.a. discretas independentes Os n´meros de “kits” de teste vendidos semanalmente por duas sucursais de uma empresa u de biotecnologia s˜o duas v.a. independentes com distribui¸ao de Poisson cujas variˆncias a c˜ a s˜o iguais a 10 e 15, respectivamente.16 a (a) Obtenha o valor exacto para a probabilidade de o n´mero total de “kits”de teste u vendidos semanalmente pelas duas sucursais da empresa exceder 25 unidades. • V.a. Xi = n´mero de “kits”vendidos semanalmente pela sucursal i (i = 1, 2) u • Distribui¸˜o de Xi ca indep Xi ∼ Poisson(λi ), i = 1, 2 • Parˆmetros a λ1 = E(X1 ) = V (X1 ) = 10 λ2 = E(X2 ) = V (X2 ) = 15 • Nova v.a. Y = X1 + X2 = n´mero total de “kits” de teste vendidos semanalmente pelas u duas sucursais • Distribui¸˜o de Y ca Tratando-se da soma de duas v.a. independentes com distribui¸˜o de Poisson, ca pode afirmar-se que Y ∼ Poisson(E(Y )). • Parˆmetro a E(Y ) = E(X1 ) + E(X2 ) = 10 + 15 = 25 • Probabilidade pedida = 1 − P (Y ≤ 25) = P (Y > 25) 1 − FP oisson(25) (25) tabela = = 16 1 − 0.5529 0.4471. Adaptado do Exame de 4 de Fevereiro de 2003. 149
  • 155. (b) Admita que as sucursais facturam 200 e 225 Euros (respectivamente) por cada “kit” de teste vendido e determine o valor esperado e o desvio-padr˜o da factura¸ao total a c˜ semanal das duas sucursais deste empresa. • Nova v.a. F = 200 × X1 + 225 × X2 =factura¸ao total semanal das duas sucursais c˜ • Valor esperado de F E(F ) = 200 × E(X1 ) + 225 × E(X2 ) = 200 × 10 + 225 × 15 = 5375 • Variˆncia de F a V (F ) = 2002 × V (X1 ) + 2252 × V (X2 ) = 2002 × 10 + 2252 × 15 = 1159375 • Desvio-padr˜o de F a √ DP (F ) = + V (F ) = + 1159375 1076.74. • Exemplo 5.66 — Casos especiais de somas de v.a. cont´ ınuas independentes Engenheiros acreditam que um tro¸o de uma ponte ´ capaz de suportar W = 200 toneladas c e sem que sejam causados danos estruturais. Para al´m disso, estudos levados a cabo e apontam para que a massa (em tonelada) dos carros que por ela circulam seja bem modelada por uma v.a. com distribui¸ao normal de valor esperado 1.5 e desvio-padr˜o c˜ a 17 0.15. (a) Qual a probabilidade de ocorrerem danos estruturais caso estejam 130 carros nesse tro¸o? c • V.a. Xi = massa do i − ´simo carro, i = 1, . . . , 130 e • Distribui¸˜o de Xi ca i.i.d. Xi ∼ normal(µ, σ 2 ), i = 1, . . . , 130 • Parˆmetros a µ = E(Xi ) = 1.5 σ 2 = V (Xi ) = 0.152 • Nova v.a. Y = 17 130 i=1 Xi = massa total dos 130 carros Adaptado do Exame de 13 de Julho de 2002. 150
  • 156. • Distribui¸˜o de Y ca Tratando-se Y de uma soma de v.a. i.i.d. com distribui¸ao normal, tem-se c˜ Y ∼ normal(E(Y ), V (Y )). • Parˆmetros a E(Y ) = E 130 i=1 Xi = 130µ = 195 V (Y ) = V 130 i=1 Xi = 130σ 2 = 2.925 • Probabilidade pedida P (Y > W = 200) = 1 − P (Y ≤ 200)  = 1−Φ  200 − E(Y )   V (Y ) 1 − Φ(2.92) tabela = 1 − 0.9982 = 0.0018. (b) Assuma agora que W ´ tamb´m uma v.a. com distribui¸ao normal com valor e e c˜ esperado 200 e desvio-padr˜o 20. Demonstre que, caso o n´mero de carros que a u est˜o nesse tro¸o da ponte seja igual a 140, a probabilidade de ocorrˆncia de danos a c e estruturais ´ de pelo menos 0.1? e • Novas v.a. T = 140 i=1 Xi = massa total dos 140 carros W = carga m´xima a Importa notar que a probabilidade pedida ´ P (T > W ) = P (T − W > 0) e pelo que ´ conveniente lidar com a v.a. T − W , que n˜o passa de uma e a combina¸˜o linear de duas v.a. independentes com distribui¸˜o normal logo ca ca tamb´m normalmente distribu´ e ıda. • Distribui¸˜es de T , W e T − W co T ∼ normal(E(T ), V (T )) W ∼ normal(E(W ), V (W )) T − W ∼ normal(E(T − W ), V (T − W )) • Parˆmetros a E(T ) = E 140 i=1 Xi = 140µ = 210 V (T ) = V 140 i=1 Xi = 140σ 2 = 3.15 151
  • 157. E(W ) = 200 V (W ) = 202 E(T − W ) = E(T ) − E(W ) = 210 − 200 = 10 V (T − W ) = V (T ) + V (W ) = 3.15 + 202 = 403.15 • Probabilidade pedida P (T > W ) = 1 − P (T − W ≤ 0)  = 1−Φ  0 − E(T − W )   V (T − W ) 1 − Φ(−0.50) = Φ(0.50) tabela 0.6915. = • Exerc´ ıcio 5.67 — A carga m´xima de um elevador ´ de 350Kg. Admita que a massa a e 2 de um passageiro ´ uma v.a. X ∼ normal(75, 10 ). Obtenha a probabilidade de a massa e total de 5 passageiros exceder a carga m´xima. a • 152
  • 158. 5.5 Desigualdade de Chebychev. Motiva¸˜o 5.68 — Desigualdade de Chebychev ca A desigualdade de Chebychev18 permite adiantar limites superiores ou inferiores para probabilidades de eventos que digam respeito a uma v.a. discreta ou cont´ ınua X, bastando para tal conhecer o seu valor esperado e a sua variˆncia. Este resultado ´ particularmente a e conveniente quando n˜o somos capazes de identificar a distribui¸˜o, por exemplo, de uma a ca soma de v.a. • Proposi¸˜o 5.69 — Desigualdade de Chebychev ca Seja X uma v.a. (discreta ou cont´ ınua) tal que E(X) = µ V (X) = σ 2 . Ent˜o a P (|X − µ| ≥ c σ) ≤ 1 . c2 (5.50) • Nota 5.70 — Desigualdade de Chebychev Esta desigualdade s´ faz sentido para c > 0 e s´ ´ util caso c > 1. o oe´ • Exemplo 5.71 — Retome o Exerc´ 5.67. ıcio (a) Determine um limite para P (45 < X < 105) admitindo que desconhece a distribui¸ao da massa X de um passageiro mas que o valor esperado e o desvioc˜ padr˜o s˜o conhecidos e iguais a 75Kg e 10Kg, respectivamente. a a • V.a. X =massa do passageiro • Distribui¸˜o de X ca desconhecida • Valor esperado µ = E(X) = 75Kg 18 Pafnuty Lvovich Chebychev (1821–1894). 153
  • 159. • Desvio-padr˜o a σ= V (X) = 10Kg • Limite para P (45 < X < 105) Comece-se por notar que P (45 < X < 105) = P (|X − 75| < 30) = 1 − P (|X − µ| ≥ 3σ) Ora recorrendo a desigualdade de Chebychev segue-se ` P (|X − µ| ≥ 3σ) ≤ 1 32 1 − P (|X − µ| ≥ 3σ) ≥ 1 − P (45 < X < 105) ≥ 1 32 8 . 9 (b) Compare o limite que obteve em (a) com o verdadeiro valor da probabilidade, caso tivesse assumido que a massa de um passageiro ´ normalmente e distribu´ ıda. • Distribui¸˜o de X ca X ∼ normal(µ = 75, σ 2 = 102 ) • Valor exacto de P (45 < X < 105) 105 − 75 45 − 75 −Φ 10 10 = Φ(3) − Φ(−3) P (45 < X < 105) = Φ = 2 × Φ(3) − 1 = 0.9973 • Coment´rio — O limite inferior obtido usando a desigualdade de Chebychev a subestima o valor da probabilidade em |8/9 − 0.9973| × 100% 10.87%, 0.9973 caso a verdadeira distribui¸ao da c˜ normal(75, 102 ). 154 massa de um passageiro seja •
  • 160. 5.6 Teorema do Limite Central. Aplica¸˜es `s co a distribui¸oes binomial e de Poisson. c˜ Motiva¸˜o 5.72 — Teorema do Limite Central ca Nem todas as distribui¸˜es gozam da propriedade reprodutiva das distribui¸˜es binomial, co co de Poisson e normal, pelo que ´ crucial arranjar formas de obter valores aproximados de e probabilidades de eventos envolvendo n i=1 • Somas ( Xi ) • M´dias aritm´ticas e e n i=1 1 n Xi de v.a. independentes e identicamente distribu´ ıdas (i.i.d.). A resposta pode encontrar-se no Teorema do Limite Central (TLC). • Teorema 5.73 — Teorema do Limite Central Considere-se que, para todo o inteiro positivo n, as v.a. X1 , . . . , Xn s˜o i.i.d. com valor a esperado µ e variˆncia finita σ 2 . Considere-se ainda a n i=1 • Sn = • Xn = Xi (soma) n i=1 1 n Xi (m´dia aritm´tica). e e Ent˜o a  lim P n→+∞ S − E(Sn )  n V (Sn )  ≤ z = lim P n→+∞ Sn − nµ √ ≤z nσ 2 = Φ(z). (5.51) Equivalentemente,  lim P n→+∞ X − E(X n )  n V (X n )   ≤ z = lim P n→+∞ = Φ(z). X −µ  n σ 2 /n  ≤ z (5.52) • 155
  • 161. Nota 5.74 — Interesse pr´tico do Teorema do Limite Central a Ao lidarmos com • n v.a. i.i.d. (E(Xi ) = µ, V (Xi ) = σ 2 < +∞) e • n suficientemente grande19 podemos • aproximar a f.d. da soma ou da m´dia aritm´tica dos Xi ’s (Sn e X n , resp.) e e devidamente padronizadas pela • f.d. de v.a. normal padr˜o. a Com efeito, pelo facto de o TLC permitir afirmar que Sn − nµ a √ ∼ normal(0, 1) nσ 2 Xn − µ a ∼ normal(0, 1) σ 2 /n (5.53) (5.54) a (onde “∼” se lˆ “tem distribui¸˜o aproximadamente...”), tem-se e ca P (Sn ≤ s) = T LC Sn − nµ s − nµ √ ≤ √ nσ 2 nσ 2 s − nµ Φ √ nσ 2 P  P (X n ≤ x) = P  X −µ  n  T LC (5.55) x−µ  ≤ σ 2 /n σ 2 /n  x−µ  Φ . σ 2 /n (5.56) • Nota 5.75 — Teorema do Limite Central O TLC ´ v´lido para somas e m´dias aritm´ticas de v.a. quer discretas, quer cont´ e a e e ınuas. Este teorema justifica tamb´m as aproxima¸oes normais das distribui¸oes binomial e e c˜ c˜ de Poisson que descreveremos ainda nesta sec¸˜o. Para tal basta considerar: ca • Xi ∼i.i.d. Bernoulli(p), i = 1, . . . , n → • Xi ∼i.i.d. Poisson(λ/n), i = 1, . . . , n → 19 Sn = Sn = n i=1 n i=1 n suficientemente grande significa, de um modo geral, n ≥ 30. 156 Xi ∼ binomial(n, p) Xi ∼ Poisson(λ). •
  • 162. Exemplo 5.76 — Teorema do Limite Central (v.a. discretas) Considere um modelo simples para o tr´fego na world wide web em que o n´mero de a u pacotes necess´rios para a transmiss˜o de uma p´gina na net distribui-se uniformemente a a a em {1, . . . , 50}. Calcule um valor aproximado para a probabilidade do n´mero de pacotes u 20 necess´rios a transmiss˜o de 100 p´ginas exceder 3000. a ` a a n(n+1) n n 2 Nota: x=1 x = 2 e x=1 x = n(n+1)(2n+1) . 6 • V.a. Xi = n´mero de pacotes necess´rios para a transmiss˜o da p´gina i, i = 1, . . . , 100 u a a a • Distribui¸˜o de Xi ca i.i.d. Xi ∼ uniforme discreta({1, 2, . . . , 50}), i = 1, . . . , 100 • F.p. de Xi   1 , x = 1, 2, . . . , 50 0, c.c. 50 P (Xi = x) =  • Valor esperado de Xi µ = E(Xi ) 50 1 50 x=1 1 50 × (50 + 1) = × 50 2 = 25.5 x× = • 2o. momento de Xi 50 1 50 x=1 1 50 × (50 + 1)(2 × 50 + 1) = × 50 6 = 858.5 E(Xi2 ) = x2 × • Variˆncia de Xi a σ 2 = V (Xi ) = E(Xi2 ) − E 2 (Xi ) = 858.5 − 25.52 = 208.25 20 Adaptado do Exame de 17 de Janeiro de 2004. 157
  • 163. • Nova v.a. Y = 100 i=1 Xi = n´mero total de pacotes necess´rios para a transmiss˜o 100 p´ginas u a a a • Valor esperado de Y E(Y ) = 100 × µ = 2550 • Variˆncia de Y a V (Y ) = 100 × σ 2 = 20825 • Distribui¸˜o aproximada de Y ca De acordo com o TLC pode adiantar-se que Y − E(Y ) a ∼ normal(0, 1). V (Y ) • Valor aproximado da probabilidade pedida P (Y > 3000) = T LC tabela 1 − P (Y ≤ 3000) 3000 − 2550 √ 1−Φ 20825 1 − Φ(3.12) = 1 − 0.9991 = 0.0009. • Exemplo 5.77 — Teorema do Limite Central (v.a. cont´ ınuas) Suponha-se que, ao adicionar n´meros reais, cada n´mero ´ arredondado previamente u u e para o inteiro mais pr´ximo. Admita-se que os erros de arredondamento s˜o v.a. i.i.d. com o a distribui¸ao comum c˜ uniforme(−0.5, 0.5). (5.57) Obtenha um valor aproximado para a probabilidade de o valor absoluto do erro da soma exceder 15 unidades ao adicionarmos 1500 n´meros. u • V.a. Xi = erro de arredondamento da parcela i, i = 1, . . . , 1500 158
  • 164. • Distribui¸˜o de Xi ca i.i.d. Xi ∼ uniforme(−0.5, 0.5), i = 1, . . . , 1500 • F.d.p. de Xi fXi (x) =   1 0.5−(−0.5)  f orm 0, = 1, −0.5 ≤ x ≤ 0.5 c.c. • Valor esperado de Xi µ = f orm = = E(Xi ) 0.5 + (−0.5) 2 0 • Variˆncia de Xi a σ2 = f orm = = V (Xi ) [0.5 − (−0.5)]2 12 1 12 • Nova v.a. Y = 1500 i=1 Xi =erro de arredondamento da soma de 1500 parcelas • Valor esperado de Y E(Y ) = 1500 × µ = 0 • Variˆncia de Y a V (Y ) = 1500 × σ 2 = 1500 12 • Distribui¸˜o aproximada de Y ca Pelo TLC pode escrever-se Y − E(Y ) a ∼ normal(0, 1). V (Y ) 159
  • 165. • Valor aproximado da probabilidade pedida P (|Y | > 15) = 1 − P (−15 ≤ Y ≤ 15)  T LC     15 − 0  −15 − 0  1 − Φ  − Φ 1500 12 1500 12 1 − [Φ(1.34) − Φ(−1.34)] = 2 × [1 − Φ(1.34)] tabela = 2 × (1 − 0.9099) = 0.1802. • Motiva¸˜o 5.78 — Aproxima¸oes de distribui¸˜es ca c˜ co Nem sempre ´ poss´ e ıvel calcular a probabilidade de certos eventos recorrendo `s a tabelas dispon´ ıveis ou de uma outra forma expedita sem recurso a uma calculadora ou a um computador. Basta considerar-se o c´lculo de P (X ≤ 40) onde a X ∼ binomial(100, 0.1). N˜o s´ as tabelas dispon´ a o ıveis n˜o contemplam valores de n superiores a 20 como a a obten¸ao de c˜ 40 100! P (X ≤ 40) = 0.1x (1 − 0.1)100−x x! (100 − x)! x=0 pressup˜e o c´lculo de 41 parcelas. o a N˜o surpreende que nestas e noutras situa¸oes similares seja frequente recorrer ao que a c˜ usualmente se denomina de • aproxima¸˜es distribucionais co entre elas as duas que constam do t´ ıtulo a sec¸ao. c˜ • Importa referir o car´cter emp´ a ırico das aproxima¸˜es das distribui¸˜es que se seguem e co co o facto de as condi¸˜es em que se deve efectuar qualquer das 4 aproxima¸oes que veremos co c˜ j´ de seguida n˜o serem r´ a a ıgidas e variarem de livro de texto para livro de texto. 160
  • 166. Nota 5.79 — 4 aproxima¸oes de distribui¸˜es c˜ co V.a. original V.a. aproximativa Condi¸˜es de aproxima¸˜o co ca Obs. 1. X ∼ hipergeom´trica(N, M, n) e n < 0.1N (1) n > 20 e p < 0.1 (2) 3. X ∼ binomial(n, p) ˜ X ∼ binomial(n, M/N ) ˜ X ∼ Poisson(np) ˜ X ∼ normal(np, np(1 − p)) np > 5 e n(1 − p) > 5 (3) 4. X ∼ Poisson(λ) ˜ X ∼ normal(λ, λ) λ>5 (4) 2. X ∼ binomial(n, p) (1) Fazer ou n˜o reposi¸˜o deixa de ser relevante quando a dimens˜o da amostra ´ muito a ca a e pequena quando comparada com a dimens˜o da popula¸˜o. a ca (2) N˜o est˜o dispon´ a a ıveis tabelas para a f.d. da binomial com n > 20. (3) Por estarmos a aproximar uma v.a. discreta por uma cont´ ınua e por forma a melhorar a aproxima¸ao recomenda-se a efectua¸ao do que se designa por correc¸˜o de c˜ c˜ ca 21 continuidade que descreveremos daqui a pouco. (4) Pelos mesmos motivos apontados acima ´ recomend´vel efectuar a correc¸ao de e a c˜ continuidade. Atente-se que existem tabelas da f.d. da v.a. X ∼ P oisson(λ) para diversos valores de λ > 5, e nesses casos n˜o h´ qualquer necessidade de efectuar a a a 22 aproxima¸˜o. ca • Nota 5.80 — 4 aproxima¸oes de distribui¸˜es c˜ co As 4 aproxima¸oes de distribui¸oes encontram justifica¸ao em resultados de convergˆncia: c˜ c˜ c˜ e ˜ 1. X ∼ hipergeom´trica(N, M, n) aproximada por X ∼ binomial(n, p = M/N ). e Para n e M/N = p fixos, tem-se: lim N → +∞ n fixo M/N = p fixo M x N −M n−x N n = n x p (1 − p)n−x . x (5.58) ˜ 2. X ∼ binomial(n, p) aproximada por X ∼ Poisson(λ = np). Para np = λ fixo, segue-se: lim n → +∞ p→0 np = λ fixo 21 22 n x λx p (1 − p)n−x = e−λ . x x! A aplica¸˜o de correc¸˜o de continuidade n˜o ´ obrigat´ria a menos que a solicitemos. ca ca a e o E muito menos a correc¸˜o de continuidade. ca 161 (5.59)
  • 167. ˜ 3./4. X ∼ binomial(n, p) aproximada por X ∼ normal(µ = np, σ 2 = np(1 − p)). ˜ X ∼ Poisson(λ) aproximada por X ∼ normal(µ = λ, σ 2 = λ). Estas duas aproxima¸˜es encontram justifica¸ao no Teorema do Limite Central. co c˜ Refira-se ainda que as 4 aproxima¸oes de distribui¸oes preservam o valor esperado da c˜ c˜ ˜ v.a. original e a variˆncia nos casos 3. e 4. Com efeito temos: E(X) = E(X), em qualquer a ˜ dos 4 casos; V (X) V (X), para as duas primeiras 4 aproxima¸˜es de distribui¸oes (1. e co c˜ ˜ 2.); e V (X) = V (X), para as restantes duas aproxima¸oes (3. e 4.). c˜ • Exemplo 5.81 — A aproxima¸˜o binomial da distribui¸˜o hipergeom´trica ca ca e Para avaliar a correc¸˜o da composi¸ao anunciada de certo produto alimentar foram ca c˜ analisadas 10000 embalagens desse produto. Verificou-se que em 100 delas o produto n˜o correspondia ao anunciado. a Indique uma express˜o e um valor aproximado para a probabilidade de pelo menos duas a embalagens do produto n˜o corresponderem ao anunciado, caso tenham sido seleccionadas a 500 embalagens ao acaso sem reposi¸˜o daquelas 10000 embalagens do produto.23 ca • V.a. original X = n´mero de embalagens que n˜o correspondem ao anunciado, numa amostra de u a 500 embalagens seleccionadas ao acaso sem reposi¸˜o de entre 10000 embalagens ca do produto das quais 100 n˜o correspondem ao anunciado a • Distribui¸˜o de X ca X ∼ hipergeom´trica(N, M, n) e • Parˆmetros a N = 10000 embalagens do produto M = 100 embalagens do produto que n˜o correspondem ao anunciado a n = 500 embalagens seleccionadas • F.p. de X    (100) (10000−100) x 500−x , x = 0, . . . , 100 (10000) P (X = x) = 500   0, c.c. 23 Adaptado do Exame de 7 de Fevereiro de 2004. 162
  • 168. • Express˜o da probabilidade pedida a P (X ≥ 2) = 1 − P (X ≤ 1) 1 = 1− x=0 100 x 10000−100 500−x 10000 500 . ˜ • V.a. aproximativa X Dado que n = 500 < 0.1N = 1000 pode aproximar-se a f.p. da v.a. X ∼ hipergeom´trica(N = 10000, M = 100, n = 500) pela f.p. da v.a. e ˜ X ∼ binomial(n = 500, p = M/N = 0.01). ˜ • F.p. de X 500 ˜ P (X = x) = 0.01x (1 − 0.01)500−x , x = 0, 1, . . . , 500 x • Valor aproximado da probabilidade pedida P (X ≥ 2) = 1 − P (X ≤ 1) ˜ 1 − P (X ≤ 1) 1 = 1− x=0 500 0.01x (1 − 0.01)500−x x = 1 − 0.99500 + 500 × 0.01 × 0.99499 = 0.9602. • Exemplo/Exerc´ ıcio 5.82 — A aproxima¸˜o de Poisson da distribui¸˜o ca ca binomial Um fabricante de computadores garante a substitui¸ao de todos os computadores que c˜ avariem durante o primeiro ano ap´s a data de compra ou da substitui¸˜o. Admite-se o ca que os tempos de vida destes computadores s˜o v.a. independentes e que seguem uma a distribui¸ao normal com valor esperado 3.526 anos e desvio padr˜o 0.85 anos.24 c˜ a (a) Calcule a propor¸ao de computadores que o fabricante pode ter que substituir. c˜ • V.a. X = tempo de vida de computador... 24 Adaptado do Exame de 5 de Fevereiro de 2002. 163
  • 169. • Distribui¸˜o de X ca X ∼ normal(µ, σ 2 ) • Parˆmetros a µ = E(X) = 3.526 anos σ 2 = V (X) = 0.852 anos2 • Probabilidade pedida Seja S o evento que representa a substitui¸ao devido a avaria durante o primeiro c˜ ano. Ent˜o a P (S) = P (X < 1)   = P X − E(X)  < V (X)  = Φ 1 − E(X)  V (X)  1 − E(X)  = V (X) 1 − 3.516 Φ 0.85 Φ(−2.96) = 1 − Φ(2.96) tabela = 0.0015. (b) Se uma firma adquirir 100 computadores `quele fabricante, qual a probabilidade de a 3 ou mais desses computadores serem substitu´ ıdos? • Nova v.a. original Y = n´mero de computadores que ser˜o substitu´ u a ıdos de entre 100 • Distribui¸˜o de Y ca Y ∼ binomial(n, p) • Parˆmetros a n = 100 p = P (S) = 0.0015 • F.p. de Y P (Y = y) = 100 0.0015y (1 − 0.0015)100−y , y = 0, 1, . . . , 100 y 164
  • 170. ˜ • V.a. aproximativa Y Dado que n > 20 e p < 0.1 pode aproximar-se a f.p. da v.a. Y ∼ binomial(n = 100, p = 0.0015) pela f.p. da v.a. ˜ Y ∼ Poisson(λ = np = 0.15). ˜ • F.p. de Y 0.15y ˜ , y = 0, 1, 2, . . . P (Y = y) = e−0.15 y! • Valor aproximado da probabilidade pedida P (Y ≥ 3) = 1 − P (Y ≤ 2) ˜ 1 − P (Y ≤ 2) = 1 − FP oisson(0.15) (2) tabela = 1 − 0.9995 = 0.0005. (c) Determine o valor exacto de P (Y ≤ 3) e calcule o erro relativo associado ao valor aproximado calculado na al´ ınea anterior. • Motiva¸˜o 5.83 — Correc¸˜o de continuidade ca ca A correc¸˜o de continuidade deve ser efectuada uma vez que, de um modo geral, vem ca melhorar a qualidade da aproxima¸˜o de uma v.a. discreta (neste caso com distribui¸ao ca c˜ binomial ou de Poisson) por uma v.a. cont´ ınua com distribui¸˜o normal. ca ˜ Para al´m disso, n˜o faria sentido aproximar P (X = x) por P (X = x), uma vez que e a ˜ ˜ e P (X = x) = 0 pois X ´ uma v.a. cont´ ınua. • Nota 5.84 — Correc¸˜o de continuidade ca ˜ Seja X uma v.a. discreta que toma valores de ∆ em ∆.25 Seja ainda X a v.a. aproximativa cont´ ınua.26 Ent˜o tem-se, para ∆ = 1 e quaisquer valores admiss´ a ıveis x, a, b da v.a. X: • P (X = x) ˜ P (x − 1/2 < X ≤ x + 1/2); • P (a < X ≤ b) ˜ P (a + 1/2 < X ≤ b + 1/2); • P (X < x) = P (X ≤ x − 1) 25 ˜ P [X ≤ (x − 1) + 1/2]. No caso das distribui¸˜es binomial e de Poisson tem-se ∆ = 1, que ´, ali´s, o valor mais comum de co e a ∆. 26 • V.a. esta com distribui¸˜o normal. ca 165
  • 171. Exemplo 5.85 — Correc¸˜o de continuidade ca Considere-se X ∼ binomial(30, 0.4). Uma vez que • n = 30 > 20 • np = 30 × 0.4 = 12 > 5 e • n(1 − p) = 30 × (1 − 0.4) = 18 > 5, ˜ pode aproximar-se a f.p. P (X = x) por P (x − 1/2 < X ≤ x + 1/2) onde ˜ X ∼ normal(µ = np = 30 × 0.4 = 12, σ 2 = np(1 − p) = 30 × 0.4 × (1 − 0.4) = 7.2). x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 valor exacto P (X = x) 0.000000 0.000004 0.000043 0.000266 0.001197 0.004149 0.011524 0.026341 0.050487 0.082275 0.115185 0.139619 0.147375 0.136039 0.110127 0.078312 0.048945 0.026872 0.012938 0.005448 0.002000 0.000634 0.000173 0.000040 0.000008 0.000001 0.000000 0.000000 0.000000 0.000000 0.000000 valor aproximado ˜ P (x − 1/2 < X ≤ x + 1/2) 0.000008 0.000036 0.000154 0.000568 0.001826 0.005115 0.012486 0.026571 0.049287 0.079694 0.112328 0.138014 0.147821 0.138014 0.112328 0.079694 0.049287 0.026571 0.012486 0.005115 0.001826 0.000568 0.000154 0.000036 0.000007 0.000001 0.000000 0.000000 0.000000 0.000000 0.000000 166 erro relativo −3297.714% −724.420% −260.716% −113.712% −52.599% −23.285% −8.349% −0.872% 2.377% 3.138% 2.481% 1.149% −0.303% −1.452% −1.999% −1.764% −0.698% 1.120% 3.493% 6.112% 8.574% 10.372% 10.853% 9.105% 3.671% −8.127% −32.009% −82.321% −203.425% −583.648% −2677.075%
  • 172. Ao fazˆ-lo obtemos a tabela anterior,27 onde pode encontrar-se tamb´m o valor do erro e e relativo da aproxima¸ao, c˜ 1− ˜ P (x − 1/2 < X ≤ x + 1/2) × 100%. P (X = x) De notar que a qualidade da aproxima¸˜o ´ tanto melhor quanto mais pr´ximo estiver o ca e o valor de x de E(X) = np = 12. • Exerc´ ıcio 5.86 — Repita o Exemplo 5.85 considerando desta feita X ∼ Poisson(22.5) e confrontando os valores exactos e aproximados da f.d. desta v.a. discreta. • Exemplo 5.87 — A aproxima¸˜o normal da distribui¸˜o binomial ca ca Um professor tenta lan¸ar o sum´rio da sua aula te´rica no FENIX no pr´prio dia e c a o o nos dias seguintes, fazendo uma unica tentativa por dia. Contudo, a probabilidade de ´ numa tentativa conseguir aceder ao sistema ´ de apenas 0.6, independentemente do dia e considerado. Durante um semestre (52 aulas) quantos sum´rios ´ de esperar que possam ser lan¸ados a e c no pr´prio dia? Indique um valor aproximado (com correc¸ao de continuidade) para a o c˜ 28 probabilidade desse n´mero exceder 30. u • V.a. X = n´mero de sum´rios lan¸ados no pr´prio dia, em 52 sum´rios u a c o a • Distribui¸˜o de X ca X ∼ binomial(n, p) • Parˆmetros a n = 52 p = 0.6 • F.p. de X P (X = x) = 52 0.6x (1 − 0.6)52−x , x = 0, 1, . . . , 52 x 27 Os valores exactos e aproximados foram aproximados at´ ` 6a. casa decimal e obtidos recorrendo ao ea Mathematica. 28 Adaptado do Exame de 24 de Junho de 2006. 167
  • 173. • Valor esperado de X E(X) = n p = 52 × 0.6 = 31.2 sum´rios a ˜ • V.a. aproximativa X Dado que np = 31.2 > 5 e n(1 − p) = 20.8 > 5 pode aproximar-se a f.d. da v.a. X ∼ binomial(n = 52, p = 0.6) pela f.d. da v.a. ˜ X ∼ normal(µ = np = 31.2, σ 2 = np(1 − p) = 12.48). com uma correc¸˜o de continuidade. ca • Valor aproximado da probabilidade pedida P (X > 30) = 1 − P (X ≤ 30) ˜ 1 − P (X ≤ 30 + 1/2)   = ˜ 30 + 1/2 − E(X)  1 − Φ ˜ V (X) 1 − Φ(−0.03) Φ(0.03) tabela = 0.5120. • Exemplo 5.88 — A aproxima¸˜o normal da distribui¸˜o de Poisson ca ca O n´mero de neutrinos registados em intervalos de 12 segundos, aquando da primeira u observa¸˜o da supernova S1987a por astr´nomos, ´ bem modelado por uma distribui¸ao ca o e c˜ de Poisson com variˆncia igual a 0.8. a Confronte o valor exacto e o aproximado (com correc¸˜o de continuidade) da ca probabilidade de o n´mero de neutrinos registados em 10 minutos exceder 40.29 u • V.a. X = n´mero de neutrinos registados em intervalos de 12 segundos u • Distribui¸˜o de X ca X ∼ Poisson(λ) 29 Adaptado do Teste A de 22 de Abril de 2006. 168
  • 174. • Parˆmetro a λ = E(X) = V (X) = 0.8 neutrinos (em intervalos de 12 segundos) • F.p. de X P (X = x) =   e−0.8 ×0.8x , x! 0,  x = 0, 1, 2, . . . outros valores de x. • Nova v.a. Y = de neutrinos registados em intervalos de 10 minutos • Distribui¸˜o de Y ca Y ∼ Poisson(λ )30 • Parˆmetros a λ = 10×60 12 × 0.8 = 40 (em intervalos de 10 minutos) • F.p. de Y P (Y = y) =  −40  e ×40y , y!  0, y = 0, 1, 2, . . . outros valores de y. • Valor exacto da probabilidade pedida = 1 − P (Y ≤ 40) = P (Y > 40) 1 − FP oisson(40) (40) tabela = 1 − 0.5419 = 0.4581 ˜ • V.a. aproximativa Y Dado que λ = 40 > 5 pode aproximar-se a f.d. da v.a. Y ∼ Poisson(λ = 40) pela f.d. da v.a. ˜ Y ∼ normal(µ = λ = 40, σ 2 = λ = 40). com correc¸ao de continuidade. c˜ 30 Este resultado deve-se ` propriedade reprodutiva da distribui¸˜o de Poisson. a ca 169
  • 175. • Valor aproximado da probabilidade pedida P (Y > 40) = 1 − P (Y ≤ 40) ˜ 1 − P (Y ≤ 40 + 1/2)  =  ˜ 40 + 1/2 − E(Y )  1 − Φ ˜ V (Y ) 1 − Φ(0.08) tabela = 1 − 0.5319 = 0.4681, valor este associado a um erro relativo igual a |0.4681 − 0.4581| × 100% = 2.18%. 0.4581 Refira-se tamb´m que h´ vantagem em efectuar correc¸ao de continuidade uma vez e a c˜ que ao n˜o efectu´-la o valor aproximado da probabilidade pedida ´ igual a 0.5 e o a a e erro relativo associado da ordem de 9.15%. • 170
  • 176. Cap´ ıtulo 6 Estima¸˜o pontual ca A Teoria das Probabilidades compreende o estudo dos modelos matem´ticos capazes a de descrever o comportamento de fen´menos aleat´rios, modelos esses que se dizem o o probabil´ ısticos. ´ Foi sobre o estudo de tais modelos que nos debru¸amos nos cap´ c´ ıtulos 2 a 5. E altura de falarmos sobre Estat´ ıstica, ramo da Matem´tica Aplicada que compreende t´cnicas a e quantitativas para recolher, apresentar e interpretar dados relativos a fen´menos aleat´rios o o visando a caracteriza¸˜o da variabilidade desses mesmos fen´menos. ca o 6.1 Inferˆncia Estat´ e ıstica. Amostragem aleat´ria. o O estudo da Estat´ ıstica assenta em alguns conceitos b´sicos que introduziremos a informalmente j´ de seguida. a Defini¸˜o informal 6.1 — V.a. ou caracter´ ca ıstica de interesse N˜o passa de uma caracter´ a ıstica crucial para o conhecimento do fen´nemo aleat´rio em o o estudo. Exemplos: • a resistˆncia de certo tipo de mola; e • o tempo at´ falha de p´ de certo motor a jacto; e a • o n´mero de colis˜es de detritos em sat´lite em MEO no espa¸o de um ano. u o e c 171
  • 177. Popula¸˜o e unidade estat´ ca ıstica Conjunto de todos os objectos/indiv´ ıduos/etc. que tˆm em comum pelo menos uma e caracter´ ıstica de interesse. A cada elemento da popula¸ao d´-se o nome de unidade c˜ a estat´ ıstica. Exemplos: • todas as molas produzidas do referido tipo; • todas as p´s de tais motores a jacto; a • todos os sat´lites em MEO. e Amostra e dado estat´ ıstico Dada a impossibilidade de observar toda uma popula¸ao — ou devido ao facto de ser c˜ infinita, ou por implicar a sua destrui¸˜o, ou por raz˜es de economia, comodidade, ou ca o tempo — ´ fundamental recolher um subconjunto que se pretende representativo da e popula¸ao; este subconjunto ´ denominado de amostra. c˜ e A cada resultado observado — relativo a caracter´ ` ıstica de interesse e respeitante a cada unidade estat´ ıstica pertencente a amostra — damos o nome de dado estat´ ` ıstico. Exemplos: • recolher a 2a., 12a., 22a., 32a. e 42a. mola da produ¸ao di´ria; c˜ a • seleccionar completamente ao acaso 5 p´s da produ¸ao semanal; a c˜ • seleccionar ao acaso um sat´lite chinˆs em MEO, um russo e trˆs americanos. e e e Em qualquer dos casos anteriores as amostras possuem dimens˜o 5. a Amostragem Trata-se de um vasto conjunto de procedimentos estat´ ısticos que encontra motiva¸ao na c˜ 1 necessidade de obten¸˜o de amostras, i.e.,“imagens a escala da popula¸ao”. ca ` c˜ Exemplos: • amostragem sistem´tica;2 a 1 E justifica s´ por si uma ou mais disciplinas dedicadas ao seu estudo em licenciaturas como a o licenciatura em Matem´tica Aplicada e Computa¸˜o no IST. a ca 2 Uma amostra sistem´tica de tamanho n de uma popula¸˜o (numerada) de N unidades obt´ma ca e se fixando (ou seleccionando aleatoriamente) um n´mero k do conjunto {1, 2, . . . , N }, extraindo u aleatoriamente uma unidade das primeiras k, que designamos por jk , e tomando por sistema as unidades jk + i k, i = 1, 2, 3, . . ., at´ se recolher um total de n elementos ou se percorrer toda a popula¸˜o. No e ca exemplo N = 50, k = 10, jk = 2 172
  • 178. • amostragem aleat´ria simples;3 o • amostragem estratificada.4 Estat´ ıstica descritiva Com a recolha da amostra obt´m-se um conjunto de dados com um aspecto ca´tico cuja e o mera leitura depressa se reconhece nada contribuir para a compreens˜o do fen´nemo a o aleat´rio em estudo. A Estat´ o ıstica Descritiva resolve (parcialmente) esta dificuldade ao consistir numa bateria de m´todos gr´ficos e num´ricos que permitem patentear de forma e a e sum´ria a informa¸ao relevante contida nos dados. a c˜ • Defini¸˜o informal 6.2 — Inferˆncia estat´ ca e ıstica A Inferˆncia Estat´ e ıstica compreende um amplo conjunto de m´todos que tem por objectivo e usar a informa¸˜o (dados/amostra) de modo a responder a quest˜es espec´ ca o ıficas sobre a popula¸ao — muito em especial sobre aspectos relativos ao car´cter aleat´rio da(s) v.a.(s) c˜ a o de interesse sob estudo. Pretende-se, por exemplo: • adiantar valores ou intervalos de valores razo´veis para parˆmetros desconhecidos a a como µ, σ 2 , etc. — estima¸ao pontual (Cap. 6) ou estima¸ao intervalar (Cap. 7); c˜ c˜ • averiguar a razoabilidade de – conjecturas (hip´teses) sobre parˆmetros desconhecidos ou de distribui¸oes (ou o a c˜ fam´ ılias de distribui¸˜es) para explicar a variabilidade da v.a. de interesse — co testes de hip´teses (Cap. 8) ou o – modelos de regress˜o que expliquem a rela¸˜o entre um par de vari´veis — a ca a regress˜o linear simples (Cap. 9). a A Inferˆncia Estat´ e ıstica parte, assim, do particular (amostra) para o geral (popula¸ao), c˜ da´ designar-se tamb´m de Inferˆncia Indutiva. ı e e • 3 O termo aleat´rio significa que a selec¸˜o ´ aleat´ria, pelo que todos os elementos da popula¸˜o tˆm a o ca e o ca e mesma probabilidade de serem escolhidos e de virem a fazer parte da amostra com dimens˜o previamente a fixada. 4 Este tipo de amostragem passa pela divis˜o da popula¸˜o em classes mais homog´neas (estratos) de a ca e cada uma das quais se extrai uma amostra aleat´ria de tamanho especificado. o 173
  • 179. Nota 6.3 — A forma como interagem aqueles conceitos e a Inferˆncia Estat´ e ıstica pode ser representada no seguinte esquema: Amostragem Popula¸˜o ca Caracter´ ıstica de interesse fX (x), µ, etc. Amostra Estat´ ıstica descritiva histograma, x, etc. ¯ Inferˆncia Estat´ e ıstica Estima¸˜o, testes, etc. ca • Motiva¸˜o 6.4 — Amostragem aleat´ria ca o Para que as inferˆncias sejam rigorosas5 ´ natural exigir que o processo de recolha de e e informa¸ao seja baseado (total ou parcialmente) na interven¸ao do acaso. c˜ c˜ • Defini¸˜o 6.5 — Amostra aleat´ria ca o Sejam: • X uma v.a. de interesse; • X1 , . . . , Xn v.a. independentes e identicamente distribu´ ıdas (i.i.d.) a X, i.e., Xi ∼i.i.d. X, i = 1, . . . , n (n ∈ I ). N Ent˜o o vector aleat´rio a o • X = (X1 , . . . , Xn ) diz-se uma amostra aleat´ria (a.a.) de dimens˜o n proveniente o a 6 da popula¸˜o X. ca • Defini¸˜o 6.6 — Amostra ca ` A observa¸ao particular da a.a. X = (X1 , . . . , Xn ) d´-se o nome de amostra e representa-se c˜ a • por x = (x1 , . . . , xn ). 5 Ou por outra: para que `s inferˆncias esteja associado um “pequeno” grau de incerteza, incerteza a e esta que ser´ quantificada probabilisticamente. a 6 Talvez fosse mais razo´vel designar-se por amostra aleat´ria (a.a.) de dimens˜o n respeitante ` v.a. de a o a a interesse X. H´, no entanto, autores que designam X indistintamente de popula¸˜o e de v.a. de interesse. a ca 174
  • 180. Nota 6.7 — Amostra aleat´ria e amostra o e o Conv´m recordar que a a.a. X = (X1 , . . . , Xn ) ´ um vector aleat´rio n−dimensional e o e que mesmo n˜o acontece com a amostra x = (x1 , . . . , xn ) que n˜o passa de um vector de a a I n. R • Proposi¸˜o 6.8 — Caracteriza¸˜o da amostra aleat´ria ca ca o Pelo facto de a a.a. ser constitu´ por n v.a. i.i.d. a X, a caracteriza¸ao probabil´ ıda c˜ ıstica da a.a. X = (X1 , . . . , Xn ) faz-se sem grande dificuldade. Com efeito, tem-se para o: • Caso discreto — f.p. conjunta de X P (X = x) = P (X1 = x1 , . . . , Xn = xn ) Xi indep. = P (X1 = x1 ) × . . . × P (Xn = xn ) n P (Xi = xi ) = Xi ∼X i=1 n = P (X = xi ) (6.1) i=1 • Caso cont´ ınuo — f.d.p. conjunta de X fX (x) = Xi indep. = fX1 ,...,Xn (x1 , . . . , xn ) fX1 (x1 ) × . . . × fXn (xn ) n = Xi ∼X fXi (xi ) i=1 n fX (xi ). = (6.2) i=1 • Motiva¸˜o 6.9 — Estat´ ca ıstica ´ E fundamental e conveniente condensar/sumariar a amostra (os dados) em medidas sum´rias como a m´dia, o desvio-padr˜o da amostra ou outras medidas j´ estudadas a e a a em Estat´ ıstica Descritiva. Estas medidas mais n˜o s˜o que valores particulares de v.a., a a definidas ` custa da a.a. e denominadas de estat´ a ısticas. • Defini¸˜o 6.10 — Estat´ ca ıstica Seja X = (X1 , . . . , Xn ) uma a.a. de dimens˜o n proveniente da popula¸ao X. Neste caso a c˜ • T diz-se uma estat´ ıstica se se tratar de uma fun¸ao exclusiva da a.a., i.e., se c˜ T = T (X). • 175
  • 181. Nota 6.11 — Estat´ ıstica a a Uma estat´ ıstica T = T (X) n˜o depende de qualquer parˆmetro desconhecido. • Exemplo 6.12 — Estat´ ısticas Estat´ ıstica Valor observado da estat´ ıstica M´ ınimo da a.a. X(1) = mini=1,...,n Xi m´ ınimo da amostra x(1) = mini=1,...,n xi M´ximo da a.a. a X(n) = maxi=1,...,n Xi m´ximo da amostra a x(n) = maxi=1,...,n xi Amplitude da a.a. R = X(n) − X(1) amplitude da amostra r = x(n) − x(1) M´dia da a.a. e ¯ X= m´dia da amostra e x= ¯ Var. corrigida da a.a. S2 = n i=1 1 n Xi 1 n 1 n−1 n i=1 (Xi ¯ − X)2 var. corrigida da am. 1 n n i=1 (Xi ¯ − X)2 var. n˜o corrig. da am. (s )2 = a Var. n˜o corrig. da a.a. (S )2 = a s2 = n i=1 xi 1 n−1 n i=1 (xi − x)2 ¯ 1 n n i=1 (xi − x)2 ¯ Na tabela acima condens´mos alguns exemplos de estat´ a ısticas, seus valores particulares e respectivas designa¸oes. c˜ • Nota 6.13 — Variˆncia corrigida (n˜o corrigida) da amostra a a Uma vez que n n (xi − x)2 = ¯ i=1 x2 − n(¯)2 , x i (6.3) i=1 a variˆncia corrigida da amostra e a variˆncia n˜o corrigida da amostra podem escrever-se a a a do seguinte modo: s2 = = (s )2 = n 1 (xi − x)2 ¯ n − 1 i=1 1 n−1 n x2 − i i=1 n (¯)2 x n−1 (6.4) 1 n (xi − x)2 ¯ n i=1 1 n 2 x − (¯)2 x n i=1 i n−1 2 = s, n = (6.5) respectivamente. Escusado ser´ dizer que estas f´rmulas alternativas poupam opera¸oes aritm´ticas e a o c˜ e poupam-nos a alguns erros de arredondamento. • 176
  • 182. Exemplo/Exerc´ ıcio 6.14 — Demonstre o resultado (6.3). Desenvolvendo o quadrado e tirando partido do facto de sucessivamente: n n i=1 xi = n¯, tem-se x n (xi − x)2 = ¯ i=1 (x2 − 2xi x + x2 ) ¯ ¯ i i=1 n n x2 − 2¯ x i = i=1 n = xi + n(¯)2 x i=1 x2 − 2¯ × n¯ + n(¯)2 x x x i i=1 n x2 − n(¯)2 . x i = i=1 • 177
  • 183. 6.2 Estimadores e suas propriedades. O objectivo principal da Estat´ ıstica ´ efectuar inferˆncias sobre caracter´ e e ısticas da v.a. de interesse com base na amostra recolhida. Considera-se, em geral, que a distribui¸ao de X c˜ ´ ou parcial, ou totalmente desconhecida. e • Parcialmente desconhecida, caso o tipo distribucional de X seja considerado conhecido (e.g., binomial, Poisson, exponencial, etc.) a menos de um ou mais parˆmetros desconhecidos (e.g. µ, σ 2 , etc.).7 Nesta situa¸ao as inferˆncias que a c˜ e possamos fazer dizem-se do tipo param´trico. e • Totalmente desconhecida, se o tipo distribucional de X for especificado de modo vago (e.g., distribui¸ao discreta, etc.). Neste caso as inferˆncias dizem-se n˜o c˜ e a param´tricas. e Nota 6.15 — Parˆmetro desconhecido a Um parˆmetro desconhecido unidimensional (resp.multidimensional) ser´ de um modo a a • geral representado por θ (resp. θ). Defini¸˜o informal 6.16 — Espa¸o param´trico ca c e Corresponde ao conjunto de todos os valores poss´ ıveis para o parˆmetro desconhecido θ a e ´ frequentemente representado por Θ. e Modelo param´trico e Fam´ de distribui¸˜es poss´ ılia co ıveis para a v.a. de interesse X.8 Esta fam´ ´ usualmente ılia e representada por { : θ ∈ Θ} onde no espa¸o em branco se colocar´ indistintamente c a a express˜o geral da f.(d.)p. de X ou o nome da distribui¸ao de X, dependentes em todo a c˜ o caso do parˆmetro θ. a • Motiva¸˜o 6.17 — Estimadores ca ´ E fundamental adiantar valores razo´veis para parˆmetros desconhecidos que caracterizem a a a distribui¸˜o da nossa v.a. de interesse. Para tal iremos recorrer a estat´ ca ısticas com caracter´ ısticas especiais que denominaremos de estimadores. • Defini¸˜o 6.18 — Estimador ca A estat´ ıstica T = T (X) diz-se um estimador do parˆmetro desconhecido θ, caso T = T (X) a tome valores exclusivamente no espa¸o param´trico Θ. c e • 7 8 Considera-se em todo o caso que o n´mero de parˆmetros desconhecidos ´ finito. u a e Paulino (1994) define modelo param´trico ` custa de X. e a 178
  • 184. Defini¸˜o 6.19 — Estimativa ca a Ao valor observado do estimador T = T (X) do parˆmetro desconhecido θ, t = T (x), damos o nome de estimativa de θ. Trata-se naturalmente de um valor razo´vel para θ j´ a a que t = T (x) ∈ Θ. • Exemplo 6.20 — Modelo e espa¸o param´tricos; estimador e estimativa c e Admita que vai inquirir n condutores/as quanto a sua preferˆncia (ou n˜o) por motores ` e a a gas´leo e que as respostas poss´ o ıveis (admiss´ ıveis) neste inqu´rito s˜o: e a • Sim (1), prefiro motor a gas´leo; o • N˜o (0), prefiro motor a gasolina. a Procure identificar: a v.a. de interesse; a respectiva distribui¸ao; o parˆmetro c˜ a desconhecido; o modelo e o espa¸o param´tricos; uma estimativa e um estimador do c e parˆmetro desconhecido. a • V.a. de interesse X = resposta de condutor/a inquirido/a =    1 (resposta afirmativa), com probabilidade θ 0 (resposta negativa), com probabilidade (1 − θ) • Distribui¸˜o de X ca X ∼ Bernoulli(θ) • Parˆmetro desconhecido a θ = P (X = 1) = P (resposta afirmativa) • Espa¸o param´trico c e Θ = [0, 1] • Modelo param´trico e {Bernoulli(θ), θ ∈ Θ} ou alternativamente {θx (1 − θ)1−x , θ ∈ Θ} • A.a. X = (X1 , . . . , Xn ) a.a. de dimens˜o n proveniente da popula¸ao X a c˜ • Amostra x = (x1 , . . . , xn ) onde x ∈ {0, 1}n 179
  • 185. • Estimativa de θ Candidata: um valor razo´vel para θ ´ a e n 1 T (x) = xi n i=1 = x ¯ = propor¸˜o observada de “sim’s” ca • Estimador de θ Candidato: 1 n Xi T (X) = n i=1 Verifica¸oes: c˜ 1. T (X) s´ depende de X o 1 2 2. T (X) toma valores em {0, n , n , . . . , n−1 , 1} ⊂ Θ = [0, 1] n Conclus˜o: a • T (X) ´ estimador de θ. e Motiva¸˜o 6.21 — Propriedades dos estimadores ca Um estimador conduzir´ a inferˆncias/estimativas mais rigorosas se gozar de algumas das a e propriedades descritas j´ de seguida. a • Defini¸˜o 6.22 — Estimador centrado ca O estimador T diz-se um estimador centrado de θ 9 se E[T (X)] = θ, ∀θ ∈ Θ, (6.6) i.e., o centro de gravidade do estimador ´ igual a θ independentemente do valor que este e parˆmetro desconhecido possa assumir. a • Defini¸˜o 6.23 — Estimador enviesado ca O estimador T diz-se um estimador enviesado de θ ∃θ ∈ Θ : E[T (X)] = θ. 10 se (6.7) • 9 10 Ou um “estimador n˜o enviesado” de θ. a Ou um “estimador n˜o centrado” de θ. a 180
  • 186. Defini¸˜o 6.24 — Enviesamento de um estimador ca O estimador de θ, T , possui enviesamento11 dado por biasθ [T (X)] = E[T (X)] − θ. (6.8) Como seria de esperar um estimador centrado (enviesado, resp.) de θ possui enviesamento nulo (n˜o nulo, resp.). a • Nota 6.25 — Enviesamento Escusado ser´ dizer que h´ a possibilidade de adiantar mais que um estimador para um a a parˆmetro desconhecido. Um estimador de θ ser´ tanto “melhor” quanto menor for o seu a a enviesamento. • Exemplo/Exerc´ ıcio 6.26 — Estimadores centrados de µ e σ 2 Considere que X ´ uma v.a. de interesse com distribui¸ao arbitr´ria, valor esperado µ e e c˜ a 2 variˆncia σ . a (a) Prove que • a m´dia da a.a. e 1 ¯ X = n n Xi i=1 • e a variˆncia corrigida da a.a. a n 1 ¯ 2 S2 = 1 i=1 (Xi − X) = n−1 n i=1 n−1 ¯ Xi2 − n (X)2 s˜o estimadores centrados de µ e σ 2 , respectivamente. a • V.a. i.i.d. Xi ∼ X, E(Xi ) = E(X) = µ, V (Xi ) = V (X) = σ 2 , i = 1, . . . , n • Estimador de µ ¯ X = 1 n Xi i=1 n 11 O termo anglo-sax´nico para enviesamento ou vi´s ´ “bias”. o e e 181
  • 187. • Estimador centrado de µ ? Trata-se de facto de um estimador centrado de µ j´ que a ¯ E(X) 1 n Xi n i=1 = E = 1 n E(Xi ) n i=1 1 n E(X) n i=1 1 × nµ n µ Xi ∼X = = = • Estimador de σ 2 S2 = 1 n−1 n i=1 (Xi ¯ − X)2 = 1 n−1 ( n i=1 ¯ Xi2 ) − n (X)2 • Estimador centrado de σ 2 ? De facto, ao tirar-se partido da f´rmula alternativa de S 2 e ao notar que o ¯ ¯ E(Z 2 ) = V (Z) + E 2 (Z), E(X) = µ e V (X) = σ 2 /n, segue-se E(S 2 ) = E n 1 ¯ (Xi − X)2 n − 1 i=1 n 1 = E n−1 1 = n−1 = 1 n−1 ¯ Xi2 − n(X)2 i=1 n ¯ E(Xi2 ) − nE[(X)2 ] i=1 n ¯ ¯ [V (Xi ) + E 2 (Xi )] − n × [V (X) + E 2 (X)] i=1 n 1 (σ 2 + µ2 ) − n × (σ 2 /n + µ2 ) n − 1 i=1 1 = (nσ 2 + nµ2 − σ 2 − nµ2 ) n−1 1 = (n − 1) σ 2 n−1 = σ2. = Assim, conclui-se que S 2 ´ efectivamente um estimador centrado de σ 2 . e 182
  • 188. (b) Demonstre tamb´m que a e • a variˆncia n˜o corrigida da a.a. a a 1 1 ¯ ¯ (S )2 = n n (Xi − X)2 = n ( n Xi2 ) − n(X)2 = i=1 i=1 n−1 2 S n ´ um estimador enviesado de σ 2 e calcule o respectivo enviesamento. e • Outro estimador de σ 2 ¯ (S )2 = 1 n (Xi − X)2 = i=1 n n−1 2 S n • Estimador centrado de σ 2 ? Tendo em conta que (S )2 = E (S )2 n−1 2 S n rapidamente se conclui que n−1 2 S n n−1 = E S2 n n−1 2 σ = n = σ2, = E pelo que (S )2 n˜o ´ um estimador centrado de σ 2 . a e • Enviesamento de (S )2 biasσ2 [(S )2 ] = E[(S )2 ] − σ 2 n−1 2 = σ − σ2 n 1 = − σ2 n < 0, donde se possa concluir que (S )2 subestima (em valor esperado) σ 2 . • Nota 6.27 — Variˆncia (resp. n˜o) corrigida a a 2 2 ´ E pelo facto de S (resp. (S ) ) ser um estimador centrado (resp. enviesado) de σ 2 que se ˜ denomina este estimador de “variˆncia corrigida (resp. nao corrigida) da a.a.”. • a Motiva¸˜o 6.28 — Erro quadr´tico m´dio ca a e N˜o basta que um estimador de θ seja centrado para garantir estimativas rigorosas. Estas a ser˜o tanto mais rigorosas quanto menos o estimador se dispersar em torno do verdadeiro a valor do parˆmetro desconhecido θ. a • 183
  • 189. Defini¸˜o 6.29 — Erro quadr´tico m´dio ca a e 12 e O erro quadr´tico m´dio (EQM) do estimador de θ, T = T (X), ´ dado por a e EQMθ [T (X)] = E [T (X) − θ]2 = V [T (X)] + {E[T (X)] − θ}2 = V [T (X)] + {biasθ [T (X)]}2 . (6.9) • Exerc´ ıcio 6.30 — Demonstre o resultado (6.9). • Nota 6.31 — Erro quadr´tico m´dio a e Uma vez definido o erro quadr´tico m´dio, escusado ser´ dizer que: a e a 1. EQM quantifica a dispers˜o esperada do estimador em torno do verdadeiro valor do a parˆmetro desconhecido θ. a 2. Um estimador ser´ tanto “melhor” quanto menor for o seu EQM. Assim, ao lidarmos a com dois estimadores de θ devemos optar por aquele que possuir o menor EQM, j´ que conduzir´ a estimativas mais rigorosas de θ. Deste modo estaremos a optar a a pelo estimador mais “eficiente”de θ. • Defini¸˜o 6.32 — Eficiˆncia relativa de estimadores ca e Sejam T1 = T1 (X) e T2 = T2 (X) dois estimadores do parˆmetro desconhecido θ. Ent˜o a a a eficiˆncia de T1 — com respeito a T2 na estima¸ao de θ — ´ dada por e c˜ e eθ [T1 (X), T2 (X)] = EQMθ [T2 (X)] . EQMθ [T1 (X)] (6.10) Assim sendo, se eθ [T1 (X), T2 (X)] > 1 ⇔ EQMθ [T2 (X)] > EQMθ [T1 (X)], diremos que o estimador T1 (X) ´ mais eficiente que T2 (X) na estima¸˜o de θ. e ca 12 A designa¸˜o anglo-sax´nica ´ “mean square error” (MSE). ca o e 184 (6.11) •
  • 190. Exemplo 6.33 — Eficiˆncia relativa de estimadores e Num estudo pr´vio ao lan¸amento no mercado de uma nova pilha de “pacemaker” e c foram postas algumas quest˜es acerca da sua dura¸˜o (em milhares de dias) a o ca um engenheiro. Estudos anteriores (embora com outros tipos de pilhas) levam a crer que tal v.a. possui distribui¸ao uniforme(0, θ), onde o parˆmetro θ ´ positivo, c˜ a e desconhecido e representa a idade m´xima da pilha. a ¯ Calcule a eficiˆncia relativa de X(n) com respeito a 2X no que se refere a estima¸ao do e ` c˜ n n 2 parˆmetro θ. Para o efeito, atente que E[X(n) ] = n+1 θ e V [X(n) ] = (n+2)(n+1)2 θ . Diga a qual dos dois estimadores ´ mais eficiente. e • V.a. Xi = dura¸˜o da pilha i, i = 1, . . . , n ca i.i.d. Xi ∼ X, i = 1, . . . , n • Distribui¸˜o ca X ∼ uniforme(0, θ) • Parˆmetro a θ desconhecido (θ > 0) • Estimador de θ X(n) = maxi=1,...,n Xi • Erro quadr´tico m´dio de X(n) a e EQMθ [X(n) ] = V [X(n) ] + biasθ [X(n) ] = V [X(n) ] + E[X(n) ] − θ 2 2 n n θ2 + θ−θ 2 (n + 2)(n + 1) n+1 2 = θ2 (n + 2)(n + 1) = • Outro estimador de θ ¯ 2X 185 2
  • 191. ¯ • Erro quadr´tico m´dio de 2X a e ¯ ¯ Se se tiver em considera¸ao que E(X) = E(X), V (X) = c˜ V (X) f orm. θ2 = 12 V (X) , n E(X) f orm. θ = 2 e tem-se ¯ ¯ ¯ EQMθ (2X) = V (2X) + biasθ (2X) ¯ ¯ = V (2X) + E(2X) − θ 2 2 22 V (X) + [2E(X) − θ]2 n 2 22 θ2 θ = + 2× −θ n 12 2 1 2 = θ 3n = ¯ • Eficiˆncia relativa de X(n) com respeito a 2X e ¯ EQMθ (2X) EQMθ (X(n) ) 1 2 θ 3n = 2 θ2 (n+2)(n+1) ¯ eθ [X(n) , 2X] = = (n + 2)(n + 1) 6n que constitui o termo geral de uma sucess˜o mon´tona n˜o decrescente cujos dois a o a primeiros termos s˜o iguais a 1. a • Coment´rio a ¯ Tendo em conta a express˜o de eθ [X(n) , 2X] pode afirmar-se que a ¯ a • X(n) e 2X s˜o igualmente eficientes, para n = 1, 2, no entanto, ¯ • X(n) ´ mais eficiente que 2X, para n > 2. e ¯ Curiosamente, X(n) n˜o ´ estimador centrado de θ ao contr´rio de 2X. a e a 186 •
  • 192. 6.3 M´todo da m´xima verosimilhan¸a. e a c At´ ao momento introduzimos estimadores cujas concretiza¸˜es constituem valores e co razo´veis para parˆmetros desconhecidos. Apresent´mos tamb´m propriedades desej´veis a a a e a para esses mesmos estimadores por forma a que conduzam a estimativas rigorosas desses parˆmetros. Resta adiantar um m´todo de obten¸ao sistem´tica de estimadores a e c˜ a de parˆmetros desconhecidos e j´ agora averiguar se tais estimadores possuem boas a a propriedades. Motiva¸˜o 6.34 — M´todo da m´xima verosimilhan¸a ca e a c O m´todo da m´xima verosimilhan¸a (MV) permite obter o valor mais plaus´ e a c ıvel/ veros´ ımil de um parˆmetro desconhecido — de entre todos os valores poss´ a ıveis para esse mesmo • parˆmetro —, tendo em conta a amostra x = (x1 , . . . , xn ) de que dispomos. a Por forma a descrever o m´todo da MV ´ necess´rio definir a fun¸˜o de verosimilhan¸a. e e a ca c Defini¸˜o 6.35 — Fun¸˜o de verosimilhan¸a ca ca c 13 A fun¸ao de verosimilhan¸a ´ representada por L(θ|x), d´ ideia de qu˜o plaus´ ´ o c˜ c e a a ıvel e valor θ para o parˆmetro desconhecido, caso se tenha recolhido a amostra x, e define-se a do seguinte modo: • Caso discreto L(θ|x) = P (X = x|θ) n P (X = xi |θ), θ ∈ Θ, = (6.12) i=1 • Caso cont´ ınuo L(θ|x) = fX (x|θ) n fX (xi |θ), θ ∈ Θ, = (6.13) i=1 onde P (•|θ) e fX (•|θ) representam a f.p. e a f.d.p. (resp.) da v.a. de interesse X tendo em conta que θ ´ o verdadeiro valor do parˆmetro desconhecido. e a • 13 Na literatura anglo-sax´nica “likelihood function”. o 187
  • 193. Nota 6.36 — Fun¸˜o de verosimilhan¸a ca c 1. Por tradi¸˜o quer o parˆmetro desconhecido, quer o valor que se lhe possa atribuir ca a s˜o representados por θ. a 2. L(θ|x) : Θ → I i.e., a fun¸ao de verosimilhan¸a tem como argumento (exclusivo) R, c˜ c θ, possui como dom´ ınio o espa¸o param´trico Θ e toma valores em I para cada c e R, 14 • valor fixo da amostra x. Defini¸˜o 6.37 — Estimativa de m´xima verosimilhan¸a ca a c Obtida a amostra x = (x1 , . . . , xn ), a estimativa de m´xima verosimilhan¸a do a c parˆmetro desconhecido corresponde ao ponto de m´ximo da fun¸˜o de verosimilhan¸a a a ca c ou, equivalentemente, ao ponto de m´ximo do logaritmo da fun¸˜o de verosimilhan¸a.15 a ca c ˆ Esta estimativa ´ representada por θ e verifica e ˆ L(θ|x) = max L(θ|x) (6.14) θ∈Θ ou, equivalentemente, ˆ ln L(θ|x) = max ln L(θ|x), (6.15) θ∈Θ ˆ e onde a fun¸˜o ln L(θ|x) ´ usualmente designada de log-verosimilhan¸a. ca c • Nota 6.38 — Estimativa de m´xima verosimilhan¸a a c ´ 1. E analiticamente mais conveniente obter o ponto de m´ximo da fun¸˜o loga ca verosimilhan¸a (uma soma de logaritmos) que o ponto de m´ximo da fun¸˜o de c a ca verosimilhan¸a (um produto). c 2. Quando o espa¸o param´trico ´ um conjunto discreto (Θ = {θ1 , . . . , θm }) o ponto de c e e m´ximo da fun¸ao de (log-)verosimilhan¸a obt´m-se por pesquisa ponto por ponto. a c˜ c e 3. No caso em que o espa¸o param´trico Θ ´ cont´ c e e ınuo recorre-se ao procedimento usual de maximiza¸ao — come¸a-se por obter o ponto de estacionaridade para de seguida c˜ c averiguar se tal ponto ´ efectivamente um ponto de m´ximo. e a 14 Na verdade L(θ|x) toma valores no intervalo [0, 1], no caso discreto, e em I + , no caso cont´ R ınuo. 15 Na verdade seria mais correcto definir a estimativa de MV como um ponto de supremo. 188
  • 194. Ao lidar-se com um unico parˆmetro desconhecido tem-se:16 ´ a d ln L(θ|x) dθ ˆ θ=θ d2 ln L(θ|x) dθ2 ˆ θ: ˆ θ=θ = 0 (ponto de estacionaridade) (6.16) < 0 (ponto de m´ximo). a (6.17) Ao lidar-se com um vector de p (p > 1) parˆmetros desconhecidos, θ = (θ1 , . . . , θp ), a ˆ ˆ a estimativa de MV, ˆ = (θ1 , . . . , θp ) n˜o s´ verifica θ a o ∂ ln L[(θ1 , . . . , θp )|x] ∂θj = 0, j = 1, . . . , p (6.18) θ=ˆ θ como a matriz hessiana — 2 H(θ) = onde hij (θ) = p > 1. ln L[(θ1 , . . . , θp )|x] = [hij (θ)]i,j=1,...,p ∂ 2 ln L[(θ1 ,...,θp )|x] ∂θi ∂θj (6.19) ˆ — seja definida negativa quando avaliada em θ, quando ˆ ˆ ˆ Caso p = 2, θ = (θ1 , θ2 ) satisfaz n˜o s´ (6.18) mas tamb´m as duas seguintes a o e condi¸oes (Casella e Berger, 2002, p. 322): c˜ (a)  2 1  ∂ ln L[(θ2 ,θ2 )|x]  ∂θ 1 ∂2   θ=ˆ θ ln L[(θ1 ,θ2 )|x] 2 ∂θ2 θ θ=ˆ < 0 ou < 0; (b) o determinante da matriz hessiana [hij (θ)]i,j=1,2 ´ positivo quando avaliado em e θ = ˆ i.e. θ, h11 (ˆ × h22 (ˆ − h12 (ˆ × h21 (ˆ > 0. θ) θ) θ) θ) 4. As equa¸oes (6.18) denominam-se equa¸˜es de verosimilhan¸a. c˜ co c 5. A estimativa de MV ´, naturalmente, uma fun¸˜o da amostra, i.e., e ca ˆ θ = g(x). (6.20) Para al´m disso n˜o se trata de uma v.a. mas da concretiza¸˜o de uma v.a. com um e a ca nome particular: estimador. • 16 A satisfa¸˜o da equa¸˜o (6.16) ´ condi¸˜o necess´ria mas n˜o suficiente para que se obtenha um ca ca e ca a a ponto de m´ximo (eventualmente local). Para que tal aconte¸a ´ fundamental que se verifique tamb´m a c e e a continuidade das segundas derivadas numa vizinhan¸a do ponto de m´ximo e que a segunda derivada c a seja negativa. 189
  • 195. Defini¸˜o 6.39 — Estimador de m´xima verosimilhan¸a ca a c O estimador de MV de θ obt´m-se por substitui¸ao de x = (x1 , . . . , xn ) por X = e c˜ ˆ (X1 , . . . , Xn ) na express˜o geral da estimativa de MV, θ = g(x), obtendo-se a EMV(θ) = g(X). (6.21) ıstica. Trata-se de uma v.a. exclusivamente dependente da a.a. X, logo uma estat´ • Exemplo 6.40 — Estimador e estimativa de MV (caso discreto) Um inqu´rito recente feito a 1000 habitantes de uma regi˜o rural revelou que 448 pessoas e a apoiam a aplica¸˜o de penas de pris˜o pesadas em crimes de fogo posto. ca a Deduza a estimativa de m´xima verosimilhan¸a da probabilidade (p) de uma pessoa a c escolhida ao acaso na tal regi˜o ser favor´vel a aplica¸ao da referida pena. Verifique que a a ` c˜ o estimador associado ´ centrado. e • V.a. de interesse X = resposta ao inqu´rito e • Distribui¸˜o ca X ∼ Bernoulli(p) • Parˆmetro desconhecido a p = P (X = 1), 0 ≤ p ≤ 1 • F.p. f orm P (X = x) = px (1 − p)1−x , x = 0, 1 • Amostra a ca x = (x1 , . . . , xn ) amostra de dimens˜o n proveniente da popula¸˜o X onde xi = resposta da i − ´sima pessoa e x : n = 1000 448 x= ¯ = 0.448 = 44.8% respostas afirmativas 1000 190
  • 196. • Obten¸˜o da estimativa de MV de p ca Passo 1 — Fun¸˜o de verosimilhan¸a ca c n L(p|x) = P (X = xi ) i=1 n pxi (1 − p)1−xi = i=1 n i=1 = p xi n i=1 (1 − p)n− xi Passo 2 — Fun¸˜o de log-verosimilhan¸a ca c n i=1 ln L(p|x) = ln p xi n i=1 (1 − p)n− xi n n xi + ln(1 − p) n − = ln(p) xi i=1 i=1 Passo 3 — Maximiza¸˜o ca A estimativa de MV de p, p, obt´m-se resolvendo ˆ e  d ln L(p|x)   dp p :  ˆ  =0 p=ˆ p d2 ln L(p|x) dp2 p=ˆ p (ponto de estacionaridade) <0 (ponto de m´ximo) a Tendo em conta a fun¸ao log-verosimilhan¸a e relembrando que 0 ≤ p ≤ 1,17 tem-se c˜ c sucessivamente p : ˆ   d[ln(p)     n i=1     p n i=1 p2 − n i=1      xi xi p ˆ − n i=1 p2 ˆ − n i=1 n i=1 xi )] − =0 p=ˆ p − n− i=1 xi (1−p)2 n− n i=1 xi 1−ˆ p <0 p=ˆ p =0 n − n− i=1 xi (1−ˆ)2 p <0 p=ˆ p xi 1−p =0 (ponto de estacionaridade) p=ˆ p xi +ln(1−p) (n− dp2 n− xi )] n xi xi n i=1 xi +ln(1−p) (n− dp n i=1  d2 [ln(p)          17 n i=1 <0 Aqui e ali ser´ necess´rio admitir que p = 0, 1. a a 191 (ponto de m´ximo) a
  • 197.    n i=1 (1 − p) ˆ − n i=1 p2 ˆ xi − xi − p (n − ˆ n n− i=1 xi (1−ˆ)2 p n i=1 xi ) = 0 <0      p= ˆ   Proposi¸ao verdadeira j´ que 0 ≤ p ≤ 1 c˜ a 1 n n i=1 xi Passo 4 — Concretiza¸˜o ca Para este inqu´rito tem-se: e 1 n xi n i=1 no. obs. de respostas afirmativas = no. pessoas inquiridas = 0.448 p = ˆ (ˆ = x = m´dia da amostra) p ¯ e • Estimador de MV de p 1 ¯ e Ser´ representado pela v.a. EM V (p) = n n Xi = X (i.e., pela m´dia da a.a.) a i=1 ¯ = E(X) = p. Deste modo conclui-se que o e possui valor esperado igual a E(X) estimador de MV de p ´ centrado. e • Exemplo 6.41 — Estimador e estimativa de MV (caso cont´ ınuo) Os tempos observados (em anos) at´ a primeira colis˜o de detritos espaciais com diˆmetro e` a a inferior a 1mm em 4 sat´lites em MEO foram de 1.2, 1.5, 1.8, 1.4. e Admita que tal tempo possui distribui¸˜o pertencente ao modelo exponencial de ca parˆmetro λ. Obtenha o estimador e a estimativa de MV de λ. a • V.a. de interesse X = tempo at´ primeira colis˜o de detritos espaciais (em anos) e a • Distribui¸˜o ca X ∼ exponencial(λ) • Parˆmetro desconhecido a λ (λ > 0) 192
  • 198. • F.d.p.   λ e−λ x , x ≥ 0 f orm fX (x) =  0, c.c., • Amostra x = (x1 , . . . , xn ) amostra de dimens˜o n proveniente da popula¸ao X a c˜ x : n=4 1 x = (1.2 + 1.5 + 1.8 + 1.4) = 1.475 ¯ 4 • Obten¸˜o da estimativa de MV de λ ca Passo 1 — Fun¸˜o de verosimilhan¸a ca c n L(λ|x) = fX (xi ) i=1 n λ e−λ xi = i=1 n i=1 = λn e−λ xi Passo 2 — Fun¸˜o de log-verosimilhan¸a ca c ln L(λ|x) = ln λn e−λ n i=1 xi n = n ln(λ) − λ xi i=1 Passo 3 — Maximiza¸˜o ca ˆ A estimativa de MV de λ ´ aqui representada por λ e e   d ln L(λ|x)  dλ ˆ λ :   ˆ λ=λ =0 d2 ln L(λ|x) dλ2 ˆ λ=λ <0 (ponto de estacionaridade) (ponto de m´ximo) a Substituindo a fun¸ao log-verosimilhan¸a nas express˜es acima e tendo em conta c˜ c o que λ > 0, obt´m-se e    ˆ λ :   n λ − n − λ2 n i=1 ˆ λ=λ xi ˆ λ=λ =0 <0 193
  • 199.   n  ˆ λ − n i=1 xi = 0      n − λ2 < 0 ˆ   Proposi¸ao verdadeira j´ que λ > 0 c˜ a ˆ λ= n n i=1 xi Passo 4 — Concretiza¸˜o ca Para esta amostra tem-se: ˆ λ = (¯)−1 x = inverso da m´dia da amostra e = 1.475−1 0.678 • Estimador de MV de λ ¯ Ser´ representado pela v.a. EM V (λ) = (X)−1 (i.e, inverso da m´dia da a.a.). Por a e sinal n˜o se trata de estimador centrado de λ. a • O estimador de MV nem sempre ´ unico e nem sempre ´ centrado. No entanto, os e ´ e estimadores de MV gozam de v´rias propriedades importantes, das quais destacamos trˆs a e que enunciaremos informalmente j´ de seguida. a Nota 6.42 — Propriedades dos estimadores de MV 1. Invariˆncia a Sejam: ˆ • θ a estimativa de MV de θ • EMV(θ) o estimador de MV de θ • h(θ) uma fun¸˜o bijectiva de θ.18 ca Ent˜o a estimativa de MV de h(θ) ´ dada por a e 18 Exigir que h(θ) seja uma fun¸˜o bijectiva de θ pode parecer demasiado restritivo. Com efeito, trataca se de uma condi¸˜o suficiente mas n˜o necess´ria para que seja satisfeita a invariˆncia. De acordo com ca a a a p m Rohatgi e Saleh (2001, p. 418) basta que a fun¸˜o h(θ) : I → I ca R R (m ≤ p) transforme conjuntos abertos p m de I em abertos de I . R R 194
  • 200. ˆ h(θ) = h(θ) (6.22) e o estimador de MV de h(θ) dado por EMV(h(θ)) = h[EMV(θ)]. (6.23) 2. Suficiˆncia e A suficiˆncia pode ser descrita informalmente do seguinte modo: as estimativas de e MV condensam em geral toda a informa¸ao relevante, contida na amostra, sobre o c˜ parˆmetro desconhecido. a 3. Consistˆncia e Esta propriedade dos estimadores de MV pode ser informalmente traduzida no seguinte comportamento probabil´ ıstico: ` medida que aumentamos a dimens˜o da a a a.a. (n), o EMV(θ) dispersa-se cada vez menos em torno do verdadeiro valor de θ (i.e., as inferˆncias tornam-se cada vez mais rigorosas). e • Exemplo 6.43 — Propriedade da invariˆncia dos estimadores de MV a Com o objectivo de estudar o tempo at´ falha de certo equipamento electr´nico (em e o dezenas de milhar de horas), uma engenheira recolheu um total de 50 observa¸˜es que co 1/50 50 = 4.2427. conduziram ` m´dia geom´trica amostral mg = a e e i=1 ti Confirmada a adequa¸˜o do modelo {Pareto(2.5, λ), λ > 0}, cuja f.d.p. ´ dada por ca e fX (x) =   λ 2.5λ x−(λ+1) , x ≥ 2.5  0, c.c., aquela mesma engenheira passou para a fase de estima¸ao pontual do parˆmetro c˜ a 19 desconhecido e de uma sua fun¸˜o. ca (a) Prove que a estimativa ˆ λ = [ln(mg ) − ln(2.5)]−1 . de m´xima a verosimilhan¸a c de λ ´ e igual • V.a. de interesse X = tempo at´ falha de certo equipamento electr´nico (em 104 horas) e o • Distribui¸˜o ca X ∼ Pareto(2.5, λ) 19 Adaptado do Exame de 4 de Fevereiro de 2003. 195 a
  • 201. • Parˆmetro desconhecido a λ (λ > 0) • F.d.p. fX (x) =   λ 2.5λ x−(λ+1) , x ≥ 2.5  0, c.c., • Amostra e a ca x = (x1 , . . . , xn ) ´ uma amostra de dimens˜o n proveniente da popula¸˜o X tal que n = 50 1/50 50 mg = = 4.2427 xi i=1 • Obten¸˜o da estimativa de MV de λ ca Passo 1 — Fun¸˜o de verosimilhan¸a ca c n L(λ|x) = fX (xi ) i=1 n −(λ+1) λ 2.5λ xi = i=1 −(λ+1) n = λn × 2.5n λ xi i=1 Passo 2 — Fun¸˜o de log-verosimilhan¸a ca c  −(λ+1) n ln L(λ|x) = ln λn × 2.5n λ xi   i=1 n = n ln(λ) + n λ ln(2.5) − (λ + 1) ln(xi ) i=1 = n ln(λ) + n λ ln(2.5) − n (λ + 1) ln(mg ) Passo 3 — Maximiza¸˜o ca ˆ e Representar-se-´ a estimativa de MV de λ por λ e ´ sabido que a ˆ λ :   d ln L(λ|x)  dλ  d2 ln L(λ|x)  dλ2 ˆ λ=λ =0 ˆ λ=λ <0 (ponto de estacionaridade) (ponto de m´ximo). a 196
  • 202. Tirando partido da express˜o da fun¸ao log-verosimilhan¸a e do facto de λ > 0, a c˜ c segue-se   n ˆ + n ln(2.5) − n ln(mg ) = 0 ˆ λ :  λ n − λ2 < 0 ˆ   ˆ λ=  Proposi¸ao verdadeira j´ que λ > 0 c˜ a 1 ln(mg )−ln(2.5) Passo 4 — Concretiza¸˜o ca Particularizando para a amostra recolhida obt´m-se: e ˆ λ = [ln(mg ) − ln(2.5)]−1 = [ln(4.2427) − ln(2.5)]−1 1.8907. (b) Obtenha a estimativa de MV da probabilidade de a dura¸ao do equipamento exceder c˜ um per´ ıodo de 35.000 horas. • Outro parˆmetro desconhecido a h(λ) = P (X > 3.5) +∞ = λ 2.5λ x−(λ+1) dx 3.5 x−(λ+1)+1 = λ 2.5 −(λ + 1) + 1 +∞ λ = 2.5 3.5 3.5 λ • Estimativa de MV de h(λ) Uma vez que h(λ) ´ uma fun¸˜o biun´ e ca ıvoca de λ pode invocar-se a propriedade da invariˆncia dos estimadores de MV e concluir que a estimativa de MV de a h(λ) ´ e 2.5 ˆ h(λ) = h(λ) = 3.5 ˆ λ = 2.5 3.5 197 1.8907 0.5293. •
  • 203. 6.4 Distribui¸oes amostrais. c˜ Motiva¸˜o 6.44 — Distribui¸˜o amostral ca ca A caracteriza¸˜o probabil´ ca ıstica de estat´ ısticas, de estimadores ou de suas fun¸oes revela-se c˜ crucial para • avaliar as propriedades dos estimadores (enviesamento, EQM, eficiˆncia relativa, e etc.) e • obter estimativas intervalares de parˆmetros desconhecidos (intervalos de confian¸a a c — Cap. 7). • Defini¸˜o 6.45 — Distribui¸˜o amostral ca ca A distribui¸˜o de uma estat´ ca ıstica, estimador ou sua fun¸ao ´ denominada de distribui¸ao c˜ e c˜ amostral (ou distribui¸˜o por amostragem). ca • Proposi¸˜o 6.46 — Duas distribui¸˜es amostrais ca co a ca Seja X = (X1 , . . . , Xn ) uma a.a. de dimens˜o n proveniente da popula¸˜o X com f.d. FX (x). Ent˜o a Estat´ ıstica Distribui¸˜o amostral ca X(1) = mini=1,...,n Xi FX(1) (x) = 1 − [1 − FX (x)]n X(n) = maxi=1,...,n Xi FX(n) (x) = [FX (x)]n • Nota 6.47 — Duas distribui¸oes amostrais c˜ Os resultados da Proposi¸˜o 6.46 s˜o v´lidos para qualquer v.a. de interesse, ca a a independentemente da sua distribui¸˜o ou do seu car´cter ser discreto ou cont´ ca a ınuo. Para al´m disso, caso Xi represente a dura¸˜o da i−´sima componente de um sistema e ca e constitu´ por n componentes, tem-se que: ıdo • X(1) = mini=1,...,n Xi representa a dura¸ao de um sistema em s´rie; c˜ e • X(n) = maxi=1,...,n Xi representa a dura¸˜o de um sistema em paralelo. ca 198 •
  • 204. Exemplo/Exerc´ ıcio 6.48 — Duas distribui¸˜es amostrais co Demonstre a Proposi¸ao 6.46. c˜ • V.a. i.i.d. Xi ∼ X, i = 1, . . . , n • F.d. de X FX (x) = P (X ≤ x), −∞ < x < +∞ • Nova v.a. X(1) = mini=1,...,n Xi • Distribui¸˜o amostral de X(1) ca = P [X(1) ≤ x] = 1 − P [X(1) > x] = FX(1) (x) 1 − P (Xi > x, i = 1, . . . , n) Xi indep = Xi ∼X = n 1− P (Xi > x) i=1 n 1− P (X > x) i=1 = 1 − [P (X > x)]n = 1 − [1 − FX (x)]n • Outra v.a. X(n) = maxi=1,...,n Xi • Distribui¸˜o amostral de X(n) ca FX(n) (x) = P [X(n) ≤ x] = P (Xi ≤ x, i = 1, . . . , n) Xi indep n P (Xi ≤ x) = Xi ∼X i=1 n P (X ≤ x) = i=1 = [P (X ≤ x)]n = [FX (x)]n . • 199
  • 205. Exerc´ ıcio 6.49 — Distribui¸oes amostrais c˜ Considere que um sistema mecˆnico ´ composto por 5 componentes cujos tempos at´ falha a e e s˜o i.i.d. a X ∼ exponencial(λ) e valor esperado comum igual 1000 horas. a (a) Calcule a probabilidade de o tempo at´ falha do sistema exceder 2500 horas ao e admitir que as componentes foram colocadas em paralelo. • V.a. Xi = dura¸˜o da componente i, i = 1, . . . , 5 ca i.i.d. Xi ∼ X, i = 1, . . . , 5 • Distribui¸˜o de X ca X ∼ exponencial(λ) • Parˆmetro a λ : E(X) = 1000 1 = 1000 λ λ = 0.001 • F.d. de X  FX (x) = 0, x<0 −0.001x  1−e , x≥0  • Dura¸˜o do sistema em paralelo ca X(5) = maxi=1,...,5 Xi • F.d. de X(5) FX(5) (x) = [FX (x)]5 = 1 − e−0.001x 5 ,x ≥ 0 • Probabilidade pedida P [X(5) > 2500] = 1 − FX(5) (2500) = 1 − 1 − e−0.001×2500 = 0.348353. 200 5
  • 206. (b) Volte a calcular a probabilidade solicitada em (a) admitindo que as componentes foram colocadas em s´rie. e • Dura¸˜o do sistema em s´rie ca e X(1) = mini=1,...,5 Xi • F.d. de X(1) FX(1) (x) = 1 − [1 − FX (x)]5 = 1 − [1 − (1 − e−0.001x )]5 = 1 − e−5×0.001x = Fexp(5×0.001) (x), x ≥ 0 • Nota i.i.d. Xi ∼ exponencial(λ), i = 1, . . . , n ⇒ X(1) = mini=1,...,n Xi ∼ exponencial(n × λ). • Probabilidade pedida P [X(1) > 2500] = 1 − FX(1) (2500) = 1 − (1 − e−5×0.001×2500 ) 3.7 × 10−6 (c) Comente os valores obtidos em (a) e (b). • Coment´rio — Constata-se que a P [X(1) > 2500] << P [X(5) > 2500], (6.24) confirmando um facto j´ bem conhecido: os sistemas em s´rie tˆm dura¸ao a e e c˜ (estocasticamente) menor que os sistemas em paralelo. • 201
  • 207. 6.5 Distribui¸oes amostrais de m´dias. c˜ e Motiva¸˜o 6.50 — Distribui¸oes amostrais da m´dia ca c˜ e A m´dia ´ de um modo geral o estimador de MV do valor esperado de qualquer v.a. de e e 20 interesse, pelo que ´ fundamental saber qual a sua distribui¸ao exacta que, refira-se, e c˜ nem sempre ´ de f´cil obten¸ao. e a c˜ • Proposi¸˜o 6.51 — Duas distribui¸˜es amostrais da m´dia ca co e a c˜ a Seja X = (X1 , . . . , Xn ) uma a.a. de dimens˜o n proveniente da popula¸ao X. Ent˜o Popula¸˜o ca Distribui¸˜o amostral da m´dia ca e X ∼ normal(µ, σ 2 ) ¯ X ∼ normal(µ, σ 2 /n) ⇔ X com distrib. arbitr´ria (n˜o normal), a a ¯ X−µ a √ ∼T LC σ/ n ¯ X−µ √ σ/ n ∼ normal(0, 1) normal(0, 1) 2 E(X) = µ, V (X) = σ , n grande • Nota 6.52 — Duas distribui¸oes amostrais da m´dia c˜ e O primeiro dos dois resultados da Proposi¸˜o 6.51 ´ um resultado exacto e deve-se ao ca e facto de a combina¸˜o linear de normais ainda possuir distribui¸˜o normal. ca ca O segundo resultado ´ aproximado, deve-se ao Teorema do Limite Central e s´ deve e o ser aplicado quando a v.a. de interesse n˜o possui distribui¸ao normal e a dimens˜o da a c˜ a amostra ´ suficientemente grande. e • Exemplo 6.53 — Uma distribui¸˜o ca amostral (aproximada) da m´dia da a.a. e Admita que o desvio absoluto de uma medi¸˜o instrumental em rela¸ao a uma norma ´ ca c˜ e uma v.a. X com distribui¸ao exponencial com parˆmetro λ desconhecido. c˜ a ¯ e V (X), onde X representa, naturalmente, a m´dia de uma amostra ¯ ¯ Calcule E(X) e aleat´ria de dimens˜o n proveniente da popula¸ao X. Tirando partido dos resultados o a c˜ anteriores mostre que, para n suficientemente grande, se tem21 √ a ¯ Z = (λX − 1) n ∼ normal(0, 1). 20 21 Ou est´ de algum modo relacionada com esse estimador. a Adaptado do Exame de 18 de Janeiro de 2003. 202
  • 208. • V.a. X =desvio absoluto de uma medi¸ao instrumental em rela¸ao a uma norma c˜ c˜ • Distribui¸˜o ca X ∼ exponencial(λ) • Parˆmetro a λ desconhecido (λ > 0) • Nova v.a. √ ¯ Z = (λX − 1) n • Distribui¸˜o aproximada de Z ca Comece-se por notar que neste caso E(X) = 1/λ e V (X) = 1/λ2 , pelo que ¯ E(X) = E(X) 1 = λ V (X) ¯ V (X) = n 1 = n λ2 < +∞. Ent˜o, de acordo com o TLC, pode afirmar-se que, para n suficientemente grande a (n = 40 > 30), Z = = ¯ ¯ X − E(X) ¯ V (X) ¯ X− 1 λ 1 n λ2 √ ¯ = (λX − 1) n a ∼ normal(0, 1). • Teremos ocasi˜o de estudar outras distribui¸˜es amostrais da m´dia da a.a. que ser˜o a co e a oportunamente introduzidas ` medida que forem necess´rias no cap´ a a ıtulo seguinte. 203
  • 209. Cap´ ıtulo 7 Estima¸˜o por intervalos ca 7.1 No¸˜es b´sicas. co a Motiva¸˜o 7.1 — Intervalos de confian¸a ca c Para al´m de uma estimativa pontual para o parˆmetro desconhecido, ´ importante e a e adiantar um intervalo que dˆ uma ideia da confian¸a que se pode depositar na estimativa e c pontual. Este intervalo ou estimativa intervalar ´, de um modo geral, denominado de intervalo e de confian¸a. E os valores mais usuais para o grau de confian¸a s˜o: 90%, 95% e 99%. • c c a Exemplo 7.2 — Intervalo de confian¸a c Admita que a resistˆncia de uma componente electr´nica (em ohm, Ω) ´ uma v.a. X ∼ e o e normal(µ, σ 2 ), onde µ ´ desconhecido e σ ´ conhecido e igual a 4Ω. e e Para obter-se informa¸˜o sobre o valor esperado da resistˆncia da componente, µ, ca e recolheu-se uma amostra de dimens˜o n = 4, tendo-se obtido o seguinte conjunto de a observa¸˜es: x = (5.0, 8.5, 12.0, 15.0). co (a) Obtenha a estimativa de MV de µ. µ=x= ˆ ¯ 1 × (5.0 + 8.5 + 12.0 + 15.0) = 10.125 Ω. 4 (b) Obtenha um intervalo de confian¸a a 95% para µ. c ´ ¯ E sabido que EM V (µ) = X. Mais ainda, que Z= ¯ X −µ √ ∼ normal(0, 1). σ/ n (7.1) 204
  • 210. Importa notar que a v.a. Z depende de ¯ • EM V (µ) = X • µ, no entanto, possui distribui¸ao independente de µ. Assim sendo, pode calcular-se, c˜ por exemplo, a seguinte probabilidade: P (−1.96 ≤ Z ≤ +1.96) = Φ(1.96) − Φ(−1.96) = Φ(1.96) − [1 − Φ(1.96)] = 0.9750 − 0.0250 = 0.9500. (7.2) Equivalentemente, P −1.96 ≤ ¯ X−µ √ σ/ n P −1.96 × σ √ n ¯ P X − 1.96 × ≤ +1.96 = 0.9500 ¯ ≤ X − µ ≤ +1.96 × σ √ n σ √ n ¯ ≤ µ ≤ X + 1.96 × σ √ n = 0.9500 (7.3) = 0.9500. Importa notar que: 1. O intervalo de extremos aleat´rios o σ σ ¯ ¯ X − 1.96 × √ , X + 1.96 × √ n n (7.4) cont´m {µ} com probabilidade 0.9500. e 2. A concretiza¸ao deste intervalo para a nossa amostra x = (5.0, 8.5, c˜ 12.0, 15.0) ´ dada por: e x − 1.96 × ¯ σ √ ,x ¯ n + 1.96 × = 10.125 − 1.96 × σ √ n 4 √ , 10.125 4 + 1.96 × 4 √ 4 (7.5) = [6.205Ω, 14.045Ω]. 3. µ pertence ao intervalo [6.205Ω, 14.045Ω] ou com probabilidade 1 (um) ou com probabilidade 0 (zero), i.e., µ pertence ou n˜o ao intervalo e nada mais podemos a adiantar por desconhecimento do verdadeiro valor de µ. 205
  • 211. 4. Caso recolhˆssemos um grande n´mero de amostras de dimens˜o n = 4 e e u a obtiv´ssemos os correspondentes intervalos e σ σ ¯ x − 1.96 × √ , x + 1.96 × √ , ¯ n n (7.6) a propor¸ao destes intervalos aos quais pertenceria o verdadeiro valor de µ seria c˜ ´ de aproximadamente 95%. (Esquema...) E esta a interpreta¸˜o frequencista ca da express˜o confian¸a a 95%. a c • Defini¸˜o informal 7.3 — Intervalo de confian¸a (IC) ca c Um IC para o parˆmetro θ ´ do tipo [l, u], onde l e u representam os respectivos limites a e inferior (“lower”) e superior (“upper”), respectivamente. Estes limites tˆm ainda a e particularidade de serem fun¸˜es: co • da amostra x, em particular de uma estimativa pontual de θ; • dos quantis de probabilidade respeitantes a distribui¸˜o de uma v.a. que, apesar de ` ca depender de θ e de um estimador de θ, possui distribui¸ao n˜o dependente de θ.1 c˜ a A este intervalo est´ associado um grau de confian¸a, usualmente representado a c por (1 − α) × 100%, cujos valores mais usuais s˜o 90%, 95% e 99%, i.e., a α = 0.1, 0.05, 0.01. • Motiva¸˜o 7.4 — M´todo de obten¸˜o de intervalos de confian¸a ca e ca c ´ E necess´rio adiantar um m´todo de obten¸˜o sistem´tica de intervalos de confian¸a para a e ca a c um parˆmetro desconhecido θ. a • Defini¸˜o 7.5 — M´todo da v.a. fulcral ca e Antes de mais ´ necess´rio descrever a situa¸ao com que lidamos, em particular conv´m e a c˜ e identificar: • a v.a. de interesse X e a respectiva distribui¸˜o; ca • o parˆmetro desconhecido θ para o qual se pretende obter um IC; a • outro eventual parˆmetro (conhecido ou desconhecido) da distribui¸˜o de X. a ca 1 Esta defini¸˜o de IC est´ claramente associada ao m´todo de obten¸˜o de intervalos de confian¸a ca a e ca c descrito j´ de seguida. Para mais m´todos de obten¸˜o de IC, recomenda-se a leitura de Rohatgi e Saleh a e ca (2001, p. 532–559). 206
  • 212. Posto isto, o m´todo da v.a. fulcral compreende 4 passos: e • Passo 1 — Selec¸˜o da v.a. fulcral para θ ca ´ E necess´rio identificar uma v.a. exclusivamente dependente da a.a. X e do a parˆmetro desconhecido θ, doravante representada por a Z = Z(X, θ), (7.7) que, no entanto, possui distribui¸ao exacta (ou aproximada) independente de θ. c˜ Esta v.a. ´, por regra, uma fun¸˜o trivial do estimador de MV de θ, consta, de e ca um modo geral, do formul´rio da disciplina e ´ usualmente designada de v.a. fulcral a e para θ. Escusado ser´ dizer que a v.a. fulcral para θ, Z, n˜o depende de mais nenhum a a parˆmetro desconhecido sen˜o de θ. a a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Identificada que foi a v.a. fulcral para θ e a respectiva distribui¸ao exacta (ou c˜ aproximada), deve proceder-se ` obten¸˜o de um par de quantis dependentes do a ca grau de confian¸a e, por isso mesmo, representados por aα e bα . Assim: c (aα , bα ) :    P (aα ≤ Z ≤ bα ) = 1 − α P (Z < aα ) = P (Z > bα ) = α/2. (7.8) (Esquema...) Deste modo, conclui-se que   −1 aα = FZ (α/2)  bα = F −1 (1 − α/2), Z (7.9) −1 onde FZ (p) representa o quantil de ordem p da distribui¸˜o exacta (ou aproximada) ca 2 da v.a. fulcral para θ. • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a De modo a obter um intervalo com extremos aleat´rios que contenha {µ} com o probabilidade (1 − α) ´ crucial inverter a dupla desigualdade aα ≤ Z ≤ bα em e ordem a θ: P (aα ≤ Z ≤ bα ) = 1 − α . . . (7.10) P [T1 (X) ≤ θ ≤ T2 (X)] = 1 − α, 2 Pela forma como estes quantis est˜o definidos eles dizem quantis equilibrados. Refira-se ainda que a a primeira equa¸˜o do sistema (7.8) ´ redundante, pelo que ser´ doravante omitida. ca e a 207
  • 213. onde T1 (X) e T2 (X) s˜o os extremos aleat´rios h´ pouco referidos, n˜o s´ a o a a o e dependentes da a.a. X mas tamb´m dos quantis de probabilidade aα e bα . • Passo 4 — Concretiza¸˜o ca Neste passo limitamo-nos a substituir, nas express˜es de T1 (X) e T2 (X), o X1 , . . . , X n (7.11) pelas respectivas observa¸oes, c˜ x1 , . . . , x n , (7.12) obtendo-se deste modo o IC a (1 − α) × 100% para θ: IC(1−α)×100% (θ) = [T1 (x), T2 (x)]. (7.13) • 208
  • 214. 7.2 Intervalos de confian¸a para o valor esperado, c variˆncia conhecida. a Nesta sec¸˜o, ` semelhan¸a do que acontecer´ com as seguintes, ser˜o apresentados ca a c a a intervalos de confian¸a para parˆmetros de interesse. Esta apresenta¸˜o obedecer´ um c a ca a figurino que passa pela identifica¸˜o da distribui¸ao da nossa v.a. de interesse (popula¸˜o) ca c˜ ca e dos parˆmetros conhecidos e desconhecidos, muito em particular aquele para o qual a pretendemos obter um IC. A esta identifica¸ao seguem-se a aplica¸ao do m´todo da v.a. c˜ c˜ e fulcral e alguns reparos que entendamos pertinentes. Na obten¸˜o de intervalos de confian¸a para o valor esperado de uma popula¸˜o com ca c ca variˆncia conhecida, distinguiremos dois casos: a 1. Popula¸ao normal c˜ 2. Popula¸ao com distribui¸ao arbitr´ria e dimens˜o da amostra suficientemente c˜ c˜ a a grande. CASO 1 — IC para o valor esperado de popula¸˜o normal com variˆncia ca a conhecida • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido3 σ 2 conhecido. • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Nunca ser´ de mais salientar que a v.a. fulcral para µ encontra-se no formul´rio e a a ser´ seleccionada tendo sempre presente que deve depender de µ (e de mais nenhum a outro parˆmetro desconhecido) e de um estimador de µ e deve possuir distribui¸˜o a ca exacta com parˆmetros conhecidos, logo independente de µ. Assim: a Z= ¯ X −µ √ ∼ normal(0, 1). σ/ n (7.14) (Ver formul´rio.) a 3 A palavra “desconhecido”est´ intencionalmente em letras mai´sculas para chamar aten¸˜o para o a u ca facto de ser este o parˆmetro para o qual pretendemos calcular o IC. a 209
  • 215. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca   (aα , bα ) :    P (Z < aα ) = α/2 P (Z > bα ) = α/2 aα = Φ−1 (α/2) = −Φ−1 (1 − α/2)  bα = Φ−1 (1 − α/2). (7.15) Os quantis de probabilidade aα e bα s˜o sim´tricos pois a f.d.p. da distribui¸˜o a e ca normal(0, 1) ´ sim´trica em rela¸ao a origem. e e c˜ ` aα e bα obtˆm-se por consulta da tabela de quantis da p´gina 8 do conjunto de e a tabelas disponibilizadas para esta disciplina. • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a P (aα ≤ Z ≤ bα ) = 1 − α P aα ≤ ¯ X−µ √ σ/ n ¯ P X − bα × ≤ bα = 1 − α σ √ n ¯ ≤ µ ≤ X − aα × ¯ P X − Φ−1 (1 − α/2) × σ √ n σ √ n =1−α ¯ ≤ µ ≤ X + Φ−1 (1 − α/2) × σ √ n = 1 − α. • Passo 4 — Concretiza¸˜o ca IC(1−α)×100% (µ) = x − Φ−1 (1 − α/2) × ¯ σ √ , n x + Φ−1 (1 − α/2) × ¯ σ √ n . (7.16) Exemplo 7.6 — IC para o valor esperado de popula¸˜o normal com variˆncia ca a conhecida Retome o Exemplo 7.2 e obtenha agora um intervalo de confian¸a a 90% para o valor c esperado da resistˆncia da componente electr´nica. Recorra ao m´todo da v.a. fulcral, e o e passo a passo. • V.a. X = resistˆncia da componente electr´nica (em Ω) e o • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 conhecido. 210
  • 216. • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Z= ¯ X −µ √ ∼ normal(0, 1). σ/ n j´ que pretendemos um IC para o valor esperado de popula¸ao normal com variˆncia a c˜ a conhecida. (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Dado que o n´ ıvel de confian¸a ´ igual a (1 − α) × 100% = 90% (i.e. α = 0.1), c e lidaremos com os quantis   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.95) = −1.6449  b = Φ−1 (1 − α/2) = Φ−1 (0.95) = 1.6449. α • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a P (aα ≤ Z ≤ bα ) = 1 − α . . . ¯ P X − Φ−1 (1 − α/2) × σ √ n ¯ ≤ µ ≤ X + Φ−1 (1 − α/2) × σ √ n = 1 − α. • Passo 4 — Concretiza¸˜o ca Ao notar-se que σ σ ¯ IC(1−α)×100% (µ) = x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ , ¯ n n onde n=4 x = 10.125Ω ¯ Φ−1 (1 − α/2) = 1.6449 σ = 4Ω tem-se 4 4 10.125 − 1.6449 × √ , 10.125 + 1.6449 × √ 4 4 = [6.8352Ω, 13.4148Ω]. IC90% (µ) = • 211
  • 217. CASO 2 — IC aproximado para o valor esperado de popula¸˜o arbitr´ria com ca a variˆncia conhecida a • Situa¸˜o ca X com distribui¸ao arbitr´ria (n˜o normal): E(X) = µ, V (X) = σ 2 c˜ a a µ desconhecido σ 2 conhecido n suficientemente grande para justificar o recurso ao Teorema do Limite Central (TLC). • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Ao aplicar o TLC conclui-se que Z= ¯ X −µ a √ ∼ normal(0, 1). σ/ n (7.17) • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Uma vez que s´ conhecemos a distribui¸˜o aproximada de v.a. fulcral para µ, o ca Z, os quantis aα e bα definidos abaixo enquadram esta v.a. com probabilidade aproximadamente igual a (1 − α). Com efeito,     −1 aα = −Φ (1 − α/2) = Φ−1 (1 − α/2). P (Z < aα ) ⇒  P (Z > bα )  bα α/2 α/2 (7.18) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a P (aα ≤ Z ≤ bα ) . . . 1−α ¯ P X − Φ−1 (1 − α/2) × σ √ n ¯ ≤ µ ≤ X + Φ−1 (1 − α/2) × σ √ n 1−α • Passo 4 — Concretiza¸˜o ca O IC σ σ IC(µ) = x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ ¯ ¯ n n (7.19) possui grau de confian¸a aproximadamente igual a (1 − α) × 100% j´ que s´ se c a o conhece a distribui¸˜o aproximada da v.a. fulcral de µ.4 N˜o surpreende pois que ca a este intervalo seja denominado de IC aproximado para µ. • 4 Da´ ter-se retirado o ´ ı ındice (1 − α) × 100% de IC. 212
  • 218. Exemplo 7.7 — IC aproximado para o valor esperado de popula¸˜o arbitr´ria ca a com variˆncia conhecida a Ao estudar-se a densidade de constru¸˜o (X) num projecto de urbaniza¸ao foi recolhida ca c˜ 50 uma amostra de 50 lotes desse projecto, tendo-se obtido i=1 xi = 227.2.5 (a) Assumindo que o desvio-padr˜o de X ´ igual a 4, obtenha um intervalo de confian¸a a e c aproximadamente igual a 95% para o valor esperado da densidade de constru¸˜o. ca • V.a. X = densidade de constru¸ao em projecto de urbaniza¸ao c˜ c˜ • Situa¸˜o ca X com distribui¸ao arbitr´ria (n˜o normal): E(X) = µ, V (X) = σ 2 c˜ a a µ desconhecido σ 2 conhecido n = 50 > 30, pelo que a dimens˜o da amostra ´ suficientemente grande. a e • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Deve usar a seguinte v.a. fulcral para µ ¯ X −µ a √ ∼T LC normal(0, 1) Z= σ/ n dado que foi solicitado um IC aproximado para o valor esperado de popula¸ao c˜ arbitr´ria com variˆncia conhecida e a dimens˜o da amostra (n = 50) ´ a a a e suficientemente grande para justificar o recurso ao TLC. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Ao considerar-se um n´ ıvel de confian¸a aproximadamente c (1 − α) × 100% = 95% (i.e., α = 0.05), faremos uso dos quantis   igual tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.975) = −1.9600  b = Φ−1 (1 − α/2) = Φ−1 (0.975) = 1.9600. α • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a P (aα ≤ Z ≤ bα ) . . . 1−α ¯ P X − Φ−1 (1 − α/2) × σ √ n ¯ ≤ µ ≤ X + Φ−1 (1 − α/2) × σ √ n 1−α 5 Adaptado do Exame de 19 de Janeiro de 2002. 213 a
  • 219. • Passo 4 — Concretiza¸˜o ca Tendo em conta que a express˜o do IC aproximado a (1 − α) × 100% ´ a e σ σ ¯ IC(µ) = x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ , ¯ n n onde n = 50 1 x = 50 50 xi = 227.2/50 = 4.544 ¯ i=1 −1 Φ (1 − α/2) = 1.9600 σ = 4, segue-se 4 4 4.544 − 1.9600 × √ , 4.544 + 1.9600 × √ 50 50 = [3.435, 5.653]. IC(µ) = (b) Que dimens˜o deveria ter a amostra para que a amplitude do intervalo aproximado a fosse reduzida para metade? • Obten¸˜o da nova dimens˜o da amostra ca a Em primeiro lugar note-se que a amplitude de um intervalo de confian¸a c aproximadamente igual a (1 − α) × 100% ´ dada por e x + Φ−1 (1 − α/2) × ¯ σ √ n − x − Φ−1 (1 − α/2) × ¯ σ √ n σ = 2 Φ−1 (1 − α/2) √n ao recorrer-se a uma amostra de dimens˜o n. a Seja n∗ a nova dimens˜o de amostra que reduz tal amplitude para metade. a Ent˜o a σ 1 σ n∗ : 2 Φ−1 (1 − α/2) √ ∗ = × 2 Φ−1 (1 − α/2) √ 2 n n 1 1 1 √ = ×√ 2 n n∗ n∗ = 4n n∗ = 200. ´ E necess´rio quadruplicar a dimens˜o da amostra para que a amplitude do a a intervalo aproximado seja reduzida para metade. • 214
  • 220. Nota 7.8 — Intervalos de confian¸a c 1. A amplitude do IC est´ relacionada com a precis˜o das estimativas pontual e a a intervalar. Com efeito, quanto menor a amplitude do IC (com (1 − α) × 100% fixo) mais precisas s˜o estas estimativas. a 2. Ao aumentarmos a dimens˜o da amostra, mantendo o grau de confian¸a a c (1 − α) × 100% fixo, diminuimos a amplitude do IC e aumentamos a precis˜o destas a estimativas. 3. Ao aumentarmos (1 − α) × 100%, mantendo a dimens˜o da amostra n fixa, a aumentamos a amplitude do IC, logo diminuimos a precis˜o das estimativas. a 4. N˜o faz sentido considerar (1 − α) × 100% = 100% (i.e., α = 0) por este valor a conduzir a um intervalo de confian¸a absolutamente in´til: IC = Θ. c u • 215
  • 221. 7.3 Intervalos de confian¸a para a diferen¸a de dois c c valores esperados, variˆncias conhecidas. a Motiva¸˜o 7.9 — IC para a diferen¸a de valores esperados ca c ´ E frequente desejar confrontar os valores esperados dos desempenhos de duas m´quinas ou a 6 de dois m´todos, etc. A obten¸ao de um IC para a diferen¸a entre esses valores esperados e c˜ c revelar-se-´ de extrema utilidade, nomeadamente, para inferir da superioridade (ou n˜o) a a de desempenho de um/a m´todo/m´quina. e a • Tal como aconteceu na sec¸ao anterior, distinguiremos dois casos, desta vez: c˜ 1. Duas popula¸oes independentes, com distribui¸oes normais c˜ c˜ 2. Duas popula¸oes independentes, com distribui¸oes arbitr´rias e dimens˜es das duas c˜ c˜ a o amostras suficientemente grandes. CASO 1 — IC para a diferen¸a de valores esperados de duas popula¸oes c c˜ normais independentes com variˆncias conhecidas a • Situa¸˜o ca 2 2 X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 conhecidos. ¯ • Obs. — Admita-se que Xi representa a m´dia da a.a. i de dimens˜o ni respeitante e a a v.a. de interesse/popula¸ao Xi (i = 1, 2). ` c˜ • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca A v.a. fulcral para (µ1 − µ2 ) encontra-se no formul´rio e tem a particularidade de a depender de (µ1 − µ2 ) (e de mais nenhum outro parˆmetro desconhecido) e de um a ¯ 1 − X2 ). Para al´m disso possui distribui¸ao exacta ¯ estimador de (µ1 − µ2 ), (X e c˜ conhecida e independente de (µ1 − µ2 ). Assim, lidaremos com Z= 6 ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 ∼ normal(0, 1) Passamos pois a lidar com duas vari´veis de interesse/popula¸˜es. a co 216 (7.20)
  • 222. 2 ¯ j´ que Xi ∼indep. normal(µi , σi /ni ), i = 1, 2.7 (Ver formul´rio.) a a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca   aα = −Φ−1 (1 − α/2)  bα = Φ−1 (1 − α/2). (7.21) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a A invers˜o faz-se de modo an´logo... a a  P aα ≤  ¯ ¯ (X1 −X2 )−(µ1 −µ2 ) σ2 σ2 1+ 2 n1 n2 ≤ bα  = 1 − α ··· ¯ ¯ P (X1 − X2 ) − Φ−1 (1 − α/2) × 2 σ1 n1 + 2 σ2 n2 ≤ µ1 − µ2 2 σ1 n1 ¯ ¯ ≤ (X1 − X2 ) + Φ−1 (1 − α/2) × + 2 σ2 n2 =1−α • Passo 4 — Concretiza¸˜o ca IC(1−α)×100% (µ1 − µ2 ) = (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ −1 (¯1 − x2 ) + Φ (1 − α/2) × x ¯ 2 σ1 n1 2 σ1 n1 + 2 σ2 , n2 + 2 σ2 n2 (7.22) . Nota 7.10 — IC para o valor esperado ou a diferen¸a de valores esperados c Dado que a distribui¸˜o normal possui f.d.p. sim´trica em rela¸ao a origem, minizaremos ca e c˜ ` a amplitude esperada do IC — logo aumentaremos a precis˜o do IC — ao tomarmos a quantis sim´tricos. Ali´s, ´ por isso que temos considerado at´ ao momento quantis de e a e e probabilidade sim´tricos/equilibrados. e • ¯ e Para justificar estes resultados basta notar que: Xi ´ uma combina¸˜o linear de v.a. normais ca ¯ 1 e X2 s˜o independentes uma vez que assumimos ¯ a independentes, logo tamb´m com distribui¸˜o normal; X e ca que as duas a.a. tamb´m o s˜o. Por fim, resta invocar o fecho da distribui¸˜o normal para somas/diferen¸as e a ca c ¯ 1 − X2 ) tamb´m tem distribui¸˜o normal, com valor esperado ¯ de v.a. independentes para concluir que (X e ca 2 2 ¯ 1 − X2 ) = E(X1 ) − E(X2 ) = µ1 − µ2 e variˆncia V (X1 − X2 ) = V (X1 ) + V (X2 ) = σ1 + σ2 . ¯ ¯ ¯ ¯ ¯ ¯ ¯ E(X a n1 n2 7 217
  • 223. Exemplo 7.11 — IC para a diferen¸a de valores esperados de duas popula¸oes c c˜ normais independentes com variˆncias conhecidas a Uma amostra de 10 peixes foi recolhida de um lago e medidas as concentra¸˜es de PCB. co Os resultados em ppm (partes por milh˜o) foram para o Lago 1: 11.5, 10.8, 11.6, 9.4, a 12.4, 11.4, 12.2, 11.0, 10.6, 10.8. Por outro lado, foi recolhida uma amostra de 8 peixes de outro lago e medidas tamb´m e as concentra¸˜es de PCB, tendo-se obtido os valores seguintes para o Lago 2: 11.8, 12.6, co 12.2, 12.5, 11.7, 12.1, 10.4, 12.6. Considere que estes dois grupos de medi¸oes s˜o concretiza¸oes de duas c˜ a c˜ a.a. independentes provenientes de distribui¸oes normais com valores esperados c˜ 2 2 desconhecidos µ1 e µ2 e variˆncias σ1 = 0.09 e σ2 = 0.06, respectivamente. a Obtenha um IC a 99% para a diferen¸a dos valores esperados das concentra¸oes de c c˜ PCB nestes dois lagos. Comente.8 • V.a. Xi = concentra¸˜o de PCB no lago i (i = 1, 2) ca • Situa¸˜o ca 2 2 X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 conhecidos. • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca Uma vez que se tem em vista a obten¸ao de IC para a diferen¸a de valores esperados c˜ c de duas popula¸oes normais independentes com variˆncias conhecidas, faremos uso c˜ a da seguinte v.a. fulcral para (µ1 − µ2 ): Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 ∼ normal(0, 1). (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Dado que o n´ de confian¸a ´ igual a (1 − α) × 100% = 99% (i.e., α = 0.01), ıvel c e utilizaremos os quantis 8 Adaptado do Exame de 25 de Junho de 2002. 218
  • 224.   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.995) = −2.5758  b = Φ−1 (1 − α/2) = Φ−1 (0.995) = 2.5758. α • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omite-se este passo... • Passo 4 — Concretiza¸˜o ca Ao ter em conta que a express˜o geral deste IC para (µ1 − µ2 ) ´ a e IC(1−α)×100% (µ1 − µ2 ) = (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ 2 σ1 n1 (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ + 2 σ2 , n2 2 σ1 n1 + 2 σ2 n2 . e o facto de 2 n1 = 10, x1 = 11.17, σ1 = 0.09 ¯ 2 n2 = 8, x2 = 11.9875, σ2 = 0.06 ¯ Φ−1 (1 − α/2) = 2.5758 conclui-se que  IC99% (µ1 − µ2 ) = (11.17 − 11.9875) − 2.5758 × 0.09 0.06 + , 10 8  (11.17 − 11.9875) + 2.5758 × 0.09 0.06  + 10 8 = [−1.1484, −0.4866]. • Coment´rio — A estimativa de MV de (µ1 − µ2 ) ´ igual a a e x1 − x2 = −0.8175 = 0. ¯ ¯ Mais, IC99% (µ1 − µ2 ) ⊃ {0}, pelo que o “zero”n˜o ´ um dos valores razo´veis para (µ1 − µ2 ). Ora, se tivermos a e a em conta tudo isto e ainda o facto de µ1 − µ2 = 0 ⇔ µ1 = µ2 , n˜o parece disparatado afirmar que as concentra¸˜es de PCB diferem de um lago a co para outro. • 219
  • 225. CASO 2 — IC aproximado para a diferen¸a de valores esperados de duas c popula¸˜es arbitr´rias (n˜o normais) independentes com variˆncias conhecidas co a a a • Situa¸˜o ca 2 X1 ⊥ X2 , com distribui¸oes arbitr´rias (n˜o normais): E(Xi ) = µi , V (Xi ) = σi , i = ⊥ c˜ a a 1, 2 (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 conhecidos n1 e n2 suficientemente grandes. • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca Recorrendo ao TLC obt´m-se a v.a. fulcral para (µ1 − µ2 ) que por sinal n˜o se e a encontra no formul´rio por tratar-se de uma variante da v.a. fulcral usada no caso a anterior. Escusado ser´ dizer que depende de (µ1 − µ2 ) e de um estimador de a (µ1 − µ2 ), para al´m de possuir distribui¸ao aproximadamente normal padr˜o e e c˜ a como tal independente de µ1 − µ2 . Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 σ1 n1 + 2 σ2 n2 a ∼ normal(0, 1). (7.23) • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Os quantis   aα = −Φ−1 (1 − α/2)  bα = Φ−1 (1 − α/2) (7.24) enquadram a v.a. fulcral para (µ1 − µ2 ) com probabilidade aproximadamente igual a (1 − α). • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a A invers˜o da desigualdade ´ an´loga... a e a • Passo 4 — Concretiza¸˜o ca IC(µ1 − µ2 ) = (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ 2 σ1 n1 2 σ1 n1 + + 2 σ2 , n2 2 σ2 n2 possui grau de confian¸a aproximadamente igual a (1 − α) × 100%. c 220 (7.25)
  • 226. Exemplo 7.12 — IC aproximado para a diferen¸a de valores esperados de duas c popula¸˜es arbitr´rias (n˜o normais) independentes com variˆncias conhecidas co a a a Foram efectuados estudos em Los Angeles e Nova York com o objectivo de determinar a concentra¸˜o de mon´xido de carbono (CO) perto de vias r´pidas. Para o efeito foram ca o a recolhidas amostras de ar para as quais se determinou a respectiva concentra¸ao de CO c˜ em ppm (partes por milh˜o). a (a) Obtenha um IC aproximado a 95% para a diferen¸a dos valores esperados das c concentra¸˜es de CO nestas duas cidades tendo em conta a seguinte informa¸˜o: co ca Los Angeles Nova York n1 = 40 n2 = 50 x1 = 117.77 ¯ x2 = 97.14 ¯ 2 σ1 = 10 2 σ2 = 32 • V.a. X1 = concentra¸ao de CO perto de vias r´pidas em Los Angeles c˜ a X2 = concentra¸ao de CO perto de vias r´pidas em Nova York c˜ a • Situa¸˜o ca X1 ⊥ X2 , com distribui¸˜es arbitr´rias (n˜o normais): ⊥ co a a 2 E(Xi ) = µi , V (Xi ) = σi , i = 1, 2 (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 conhecidos n1 = 40 > 30 e n2 = 50 > 30 logo amostras s˜o suficientemente grandes. a • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca J´ que se pretende IC aproximado para a diferen¸a de valores esperados de duas a c popula¸oes arbitr´rias (n˜o normais) independentes com variˆncias conhecidas c˜ a a a e as dimens˜es das amostras justificam o recurso ao TLC, usar-se-´ a seguinte o a v.a. fulcral: ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) a Z= ∼ normal(0, 1). 2 σ1 σ2 + n2 n1 2 • Passo 2 — Obten¸˜o dos quantis de probabilidade ca O seguinte par de quantis enquadra a v.a. fulcral Z com probabilidade aproximadamente igual a (1 − α) = 0.95 (i.e., α = 0.05):   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.975) = −1.9600  b = Φ−1 (1 − α/2) = Φ−1 (0.975) = 1.9600. α 221
  • 227. • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omite-se este passo... • Passo 4 — Concretiza¸˜o ca Tirando partido do facto de a express˜o geral do IC aproximado a a (1 − α) × 100% ser IC(µ1 − µ2 ) = (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ 2 σ1 n1 + 2 σ1 n1 + 2 σ2 , n2 2 σ2 n2 e de 2 n1 = 40, x1 = 117.77, σ1 = 10 ¯ 2 n2 = 50, x2 = 97.14, σ2 = 32 ¯ Φ−1 (1 − α/2) = 1.9600, obt´m-se e  IC(µ1 − µ2 ) = (117.77 − 97.14) − 1.9600 × 10 32 + , 40 50  (117.77 − 97.14) + 1.9600 × 10 32  + 40 50 = [18.7809, 22.4791]. (b) Num programa televisivo em que se debatiam quest˜es ambientais, o presidente da o cˆmara de Nova York afirmou que: “A concentra¸˜o esperada de CO em Nova York a ca n˜o difere da concentra¸ao esperada em Los Angeles.”Comente esta afirma¸ao. a c˜ c˜ • Coment´rio — A estimativa de MV de (µ1 − µ2 ) ´ superior a 0. Com efeito, a e x1 − x2 = 20.63 ¯ ¯ e para al´m disso e IC(µ1 − µ2 ) ⊃ {0}, pelo que o presidente da cˆmara de Nova York deveria ter afirmado que a a concentra¸˜o esperada de CO em Los Angeles ´ superior a concentra¸ao ca e ` c˜ esperada em New York. • 222
  • 228. 7.4 Intervalos de confian¸a para o valor esperado, c variˆncia desconhecida. a Motiva¸˜o 7.13 — IC para o valor esperado com variˆncia desconhecida ca a Na maior parte das situa¸oes desconhecemos quer o valor esperado, quer a variˆncia da c˜ a ¯ X−µ nossa v.a. de interesse. Neste caso σ/√n ∼ normal(0, 1) deixa de ser uma v.a. fulcral para µ j´ que depende de σ e este parˆmetro ´ desconhecido. a a e • Por forma a adiantar uma v.a. fulcral para µ quando lidamos com uma popula¸˜o ca normal com variˆncia desconhecida, ser´ preciso enunciar alguns resultados auxiliares que a a condensaremos na seguinte proposi¸˜o. ca Proposi¸˜o 7.14 — Distribui¸˜es do qui-quadrado e de t-Student ca co Considere-se Xi ∼i.i.d. normal(µ, σ 2 ), i = 1, . . . , n. Ent˜o: a 1. Xi −µ 2 σ ∼i.i.d. χ2 , i = 1, . . . , n (1) Xi −µ 2 σ 2. n i=1 3. (n−1)S 2 σ2 4. ¯ X−µ √ σ/ n = ⊥ ⊥ ∼ χ2 (n) (n−1) σ2 × 9 10 1 n−1 n i=1 (Xi ¯ − X)2 ∼ χ2 (n−1) (n−1)S 2 σ2 Sejam W ∼ normal(0, 1) e Y ∼ χ2 duas v.a. independentes (W ⊥ ). Ent˜o: ⊥Y a (ν) 5. √W Y /ν 6. ¯ X−µ √ S/ n ∼ t(ν) = 11 ¯ X−µ √ σ/ n (n−1)S 2 σ2 n−1 d = normal(0,1) ∼ t(n−1) , j´ que o numerador ´ uma v.a. a e 2 χ (n−1) n−1 • independente do denominador. Nota 7.15 — Distribui¸oes do qui-quadrado e de t-Student c˜ Os quantis de probabilidade das distribui¸˜es do qui-quadrado e de t-Student constam co das p´ginas 9 e 10 das tabelas disponibilizadas nesta disciplina. a • 9 Leia-se: “a v.a. ... possui distribui¸˜o do qui-quadrado com um grau de liberdade”. ca Leia-se: “a v.a. ... possui distribui¸˜o do qui-quadrado com n grau de liberdade”. Trata-se de uma ca consequˆncia da propriedade reprodutiva da v.a. do qui-quadrado. e 11 Leia-se: “a v.a. ... possui distribui¸˜o de t-Student com ν grau de liberdade” ca 10 223
  • 229. CASO 1 — IC para o valor esperado de popula¸˜o normal com variˆncia ca a desconhecida • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 desconhecido. • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Recorrendo ` Proposi¸ao 7.14 podemos adiantar uma v.a. fulcral para µ: a c˜ Z= ¯ X −µ √ ∼ t(n−1) . S/ n (7.26) (Ver formul´rio.) Com efeito, esta v.a. depende de µ mas n˜o do parˆmetro a a a ¯ desconhecido σ, para al´m de depender de um estimador de µ, X, e de um de e σ, S. Mais, possui distribui¸ao exacta conhecida e independente de µ e de σ 2 . c˜ • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Uma vez que a distribui¸˜o de t-Student com (n−1) graus de liberdade ´ igualmente ca e sim´trica em rela¸ao a origem, minimizaremos a amplitude esperada do IC ao e c˜ ` escolher quantis de probabilidade sim´tricos: e   aα = −Ft−1 (1 − α/2) (n−1)  bα = F −1 (1 − α/2). t(n−1) (7.27) (Esquema e consulta de tabelas...) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Similar ` da obten¸ao de IC para µ com σ conhecido. a c˜ • Passo 4 — Concretiza¸˜o ca IC(1−α)×100% (µ) = x − Ft−1 (1 − α/2) × ¯ (n−1) onde, recorde-se, s2 = 1 n−1 s √ , n n i=1 (xi x + Ft−1 (1 − α/2) × ¯ (n−1) − x) 2 = ¯ 224 1 n−1 × [( n i=1 s √ n , x2 ) − n(¯)2 ]. x i (7.28)
  • 230. Nota 7.16 — IC para o valor esperado de popula¸˜o normal, com variˆncia ca a desconhecida O IC em (7.28) ´ similar ao obtido para µ com σ conhecido em (7.16). De facto ocorreram e as seguintes substitui¸˜es: co • Φ−1 (1 − α/2) −→ Ft−1 (1 − α/2); (n−1) • σ −→ s. E mais uma vez temos um IC do tipo: • estimativa pontual ± quantil × concretiza¸ao do denominador da v.a. fulcral. c˜ • Exemplo 7.17 — IC para o valor esperado de popula¸˜o normal com variˆncia ca a desconhecida A dura¸ao (em horas) de certa marca de pilha para m´quinas fotogr´ficas digitais possui c˜ a a distribui¸ao que se admite normal com valor esperado µ e variˆncia σ 2 desconhecidos. c˜ a Um revendedor seleccionou ao acaso 10 pilhas de um lote, tendo obtido o seguinte conjunto de dados: x = (251, 238, 236, 229, 252, 253, 245, 242, 235, 230). Tire partido do c facto de 10 xi = 2411 e 10 x2 = 582009 e obtenha um intervalo de confian¸a a 99% i=1 i i=1 para µ. • V.a. X = dura¸˜o (em horas) de certa marca de pilha ca • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 desconhecido. • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Z= ¯ X −µ √ ∼ t(n−1) S/ n dado que se pretende IC para o valor esperado de popula¸ao normal com variˆncia c˜ a desconhecida. (Ver formul´rio.) a 225
  • 231. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Como n = 10 e (1 − α) × 100% = 99% (ou seja, α = 0.01), far-se-´ uso dos quantis a   tabela aα = −Ft−1 (1 − α/2) = −Ft−1 (0.995) = −3.250 (n−1) (9)  b = F −1 (1 − α/2) = F −1 (0.995) = 3.250 α t(n−1) t(9) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omite-se novamente este passo... • Passo 4 — Concretiza¸˜o ca Ora, ´ sabido que neste caso e IC(1−α)×100% (µ) = s x − Ft−1 (1 − α/2) × √ , ¯ (n−1) n s x + Ft−1 (1 − α/2) × √ , ¯ (n−1) n onde n = 10 x= ¯ 1 n n i=1 xi = 2411 10 = 241.1 1 s2 = n−1 × [( n x2 ) − n(¯)2 ] x i=1 i 1 = 10−1 (582009 − 10 × 241.12 ) = 79.66 Ft−1 (1 − α/2) = 3.250. (n−1) Deste modo conclui-se que  IC99% (µ) = 241.1 − 3.250 × 79.66 , 241.1 + 3.250 × 10  79.66  10 = [231.927, 250.273]. • 226
  • 232. CASO 2 — IC aproximado para o valor esperado de popula¸˜o arbitr´ria com ca a variˆncia desconhecida a • Situa¸˜o ca X com distribui¸ao arbitr´ria (n˜o normal): E(X) = µ, V (X) = σ 2 c˜ a a µ desconhecido σ 2 desconhecido n suficientemente grande. • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca A v.a. fulcral a utilizar nesta situa¸˜o encontra-se no formul´rio e muito se ca a ¯ X−µ assemelha a S/√n ∼ t(n−1) , usada quando a v.a. de interesse possui distribui¸ao c˜ normal com ambos os parˆmetros desconhecidos. De facto tˆm a mesma express˜o a e a mas distribui¸oes distintas: c˜ Z= ¯ X −µ a √ ∼ normal(0, 1). S/ n (7.29) Para a utiliza¸˜o desta v.a. ´ fundamental que a dimens˜o da amostra seja ca e a suficientemente grande j´ que este resultado distribucional assenta na aplica¸ao do a c˜ TLC e do Teorema de Slutsky (Rohatgi e Saleh (2001, p. 270)). • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Os quantis de probabilidade sim´tricos a utilizar dizem respeito ` distribui¸˜o e a ca aproximada da v.a. fulcral para µ:   aα = −Φ−1 (1 − α/2)  bα = Φ−1 (1 − α/2). (7.30) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a An´loga a obten¸ao de IC para o valor esperado de popula¸˜o normal com σ a ` c˜ ca desconhecido. • Passo 4 — Concretiza¸˜o ca O IC aproximado ´, neste caso, dado por: e s s IC(µ) = x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ . ¯ ¯ n n 227 (7.31)
  • 233. Exemplo 7.18 — IC aproximado para o valor esperado de popula¸˜o arbitr´ria ca a com variˆncia desconhecida a Uma m´quina autom´tica ´ usada para encher e selar latas de um litro de um produto a a e l´ ıquido. Na sequˆncia de algumas queixas acerca do facto de as latas se encontrarem e demasiado cheias, foi medido o conte´do de 100 latas seleccionadas ao acaso do fabrico u 100 di´rio, tendo-se obtido i=1 xi = 108.983 e 100 x2 = 120.238. a i=1 i Deduza um intervalo aproximado de confian¸a a 95% para o valor esperado µ do c 12 conte´do das latas. u • V.a. X = conte´do de lata de um litro de um produto l´ u ıquido • Situa¸˜o ca X com distribui¸ao arbitr´ria (n˜o normal): E(X) = µ, V (X) = σ 2 c˜ a a µ desconhecido σ 2 desconhecido n = 100 > 30 (suficientemente grande). • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Z= ¯ X −µ a √ ∼ normal(0, 1) S/ n pois pretende-se IC aproximado para o valor esperado de popula¸˜o com distribui¸ao ca c˜ arbitr´ria com variˆncia desconhecida e estamos a lidar com amostra suficientemente a a grande que justifica invocarmos o TLC e o Teorema de Slutsky. (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Uma vez que o grau de confian¸a ´ aproximadamente de (1 − α) × 100% = 95% (ou c e seja, α = 0.05) iremos usar os quantis sim´tricos seguintes: e   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.975) = −1.9600  b = Φ−1 (1 − α/2) = Φ−1 (0.975) = 1.9600. α Estes quantis dizem respeito ` distribui¸ao aproximada da v.a. fulcral para µ e a c˜ enquandram-na com probabilidade aproximadamente igual a (1 − α) = 0.95. 12 Adaptado do Exame de 24 de Junho de 2006. 228
  • 234. • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Tal como nos exemplos anteriores omite-se este passo... • Passo 4 — Concretiza¸˜o ca O IC aproximado a (1 − α) × 100% para µ ´ dado por e s s ¯ IC(µ) = x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ , ¯ n n onde n = 100 x= ¯ 1 n n i=1 xi = 108.983 100 = 1.08983 1 x s2 = n−1 [( n x2 ) − n(¯)2 ] i=1 i 1 = 100−1 (120.238 − 100 × 1.089832 ) = 0.0147945 Φ−1 (1 − α/2) = 1.9600. Assim sendo  IC(µ) = 1.08983 − 1.9600 × 0.0147945 , 100  1.08983 + 1.9600 × 0.0147945  100 = [1.06599, 1.11367]. • Antes de prosseguirmos para a sec¸ao seguinte convinha real¸ar que em certas situa¸oes c˜ c c˜ lidamos com uma v.a. de interesse cuja distribui¸˜o depende de um unico parˆmetro ca ´ a desconhecido e que quer o valor esperado, quer a variˆncia dependem desse mesmo a parˆmetro. a Entre essas situa¸oes, considere-se, para j´, aquela em que, ao invocar o TLC, obt´mc˜ a e se uma v.a. fulcral para o valor esperado cuja express˜o ´ de tal modo simplificada que a e n˜o ´ sequer necess´rio estimar V (X) ` custa da variˆncia da a.a. e como tal n˜o ´ preciso a e a a a a e invocar o Teorema de Slutsky. Ilustraremos esta situa¸˜o com um exemplo paradigm´tico em que ca a X ∼ exponencial(λ = 1/δ). 229
  • 235. Exemplo 7.19 — IC aproximado para o valor esperado de popula¸˜o arbitr´ria ca a com variˆncia desconhecida dependente do valor esperado mas que n˜o carece a a de estima¸˜o... ca Admita que o tempo entre falhas consecutivas de certo equipamento el´ctrico ´ e e caracterizado por ter a seguinte f.d.p.: fX (x) =   e−x/δ , δ  0, x≥0 c.c., onde δ > 0. Admita ainda que recolheu uma amostra de dimens˜o n = 35 desta popula¸ao, a c˜ 35 35 2 tendo obtido i=1 xi = 77.349 e i=1 xi = 293.452. Justifique que √ n ¯ X a − 1 ∼ normal(0, 1), δ ¯ e onde X ´ o estimador de MV de δ. Tire partido deste resultado e da amostra para construir um intervalo de confian¸a aproximado a 90% para o valor esperado E(X) = δ.13 c • V.a. X = tempo entre falhas consecutivas de certo equipamento el´ctrico e • Situa¸˜o ca X com distribui¸ao n˜o normal... c˜ a X ∼ exponencial(λ = 1/δ), µ = E(X) = δ, σ 2 = V (X) = δ 2 µ desconhecido σ 2 desconhecido n = 35 > 30 (suficientemente grande). • Passo 1 — Selec¸˜o da v.a. fulcral para δ ca De acordo com o TLC, pode afirmar-se que: Z= ¯ ¯ ¯ ¯ X − E(X) X −δ √ X − E(X) = = = n V (X) δ2 ¯ V (X) n n 13 Adaptado do Exame de 23 de Junho de 2007. 230 ¯ X a − 1 ∼ normal(0, 1). δ
  • 236. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Ao pretendermos IC aproximado a (1 − α) × 100% = 90% (ou seja, α = 0.1) ´ e suposto usar os quantis   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.95) = −1.6449  b = Φ−1 (1 − α/2) = Φ−1 (0.95) = 1.6449, α que enquadram a v.a. fulcral para δ com probabilidade aproximadamente igual a (1 − α) = 0.90. • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Uma vez que a v.a. fulcral tem express˜o em nada semelhantes as anteriores n˜o se a ` a omitir´ este passo: a P (aα ≤ Z ≤ bα ) 1 − α √ ¯ P aα ≤ n X − 1 ≤ b α δ P 1+ ¯ X bα 1+ √n P P a √α n ≤ ¯ X δ ¯ X Φ−1 (1−α/2) √ 1+ n bα √ n ≤1+ ¯ X a 1+ √α n ≤ δ ≤ 1−α 1−α 1−α ¯ X ≤ δ≤ 1 − α. Φ−1 (1−α/2) √ 1− n • Passo 4 — Concretiza¸˜o ca O IC aproximado a (1 − α) × 100% para δ possui express˜o geral dada por a  IC(δ) =  x ¯ 1+ Φ−1 (1−α/2) √ n , x ¯ 1− Φ−1 (1−α/2) √ n  , com n = 35 x= ¯ 1 n n i=1 xi = 77.349 35 = 2.20997 Φ−1 (1 − α/2) = 1.6449. Deste modo o IC aproximado pretendido ´ igual a e   2.20997 2.20997  IC(δ) =  1.6449 , √ 1 + √35 1 − 1.6449 35 = [1.72919, 3.06106]. • 231
  • 237. 7.5 Intervalos de confian¸a para a diferen¸a de dois c c valores esperados, variˆncias desconhecidas. a Escusado ser´ dizer que na apresenta¸˜o que se segue considerar-se-˜o dois casos. a ca a 2 1. Lida-se com duas popula¸˜es normais independentes: X1 ∼ normal(µ1 , σ1 ) e X2 ∼ co 2 2 2 normal(µ2 , σ2 ), onde σ1 e σ2 s˜o desconhecidos mas que se assume serem iguais. a Para al´m disso, as dimens˜es das amostrais n˜o s˜o suficientemente grandes que e o a a justifiquem o recurso a um resultado assint´tico. o 2. Desta feita as duas popula¸oes s˜o independentes, com distribui¸oes arbitr´rias c˜ a c˜ a 2 (possivelmente normais) e valores esperados e variˆncias iguais a µi e σi , i = 1, 2, a 2 2 onde σ1 e σ2 s˜o desconhecidos mas n˜o necessariamente iguais. Mais, as dimens˜es a a o das duas amostras, n1 e n2 , s˜o suficientemente grandes para invocar o TLC e o a Teorema de Slutsky. CASO 1 — IC para a diferen¸a de valores esperados de duas popula¸oes c c˜ normais independentes, com variˆncias desconhecidas mas que se assume a serem iguais • Situa¸˜o ca 2 2 ⊥ X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) (µ1 − µ2 ) desconhecido 2 2 2 2 σ1 e σ2 desconhecidos, no entanto, assume-se que serem iguais: σ1 = σ2 = σ 2 n1 ≤ 30 ou n2 ≤ 30. • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca Desta feita ´ suposto utilizarmos: e Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 2 (n1 −1)S1 +(n2 −1)S2 n1 +n2 −2 × 1 n1 + ∼ t(n1 +n2 −2) , (7.32) 1 n2 (n −1)S 2 +(n −1)S 2 2 1 onde 1 n1 +n2 −2 2 ´ um estimador razo´vel para a variˆncia comum das e a a 2 2 popula¸oes X1 e X2 , σ1 = σ2 = σ 2 . (Ver formul´rio.) c˜ a 232
  • 238. Para justificar este resultado distribucional basta reescrever a v.a. fulcral, ter presente a forma como ´ derivada a distribui¸ao t-Student e notar que se assumiu e c˜ 2 2 2 que σ1 = σ2 = σ . Assim, temos: ¯ ¯ (X1 −X2 )−(µ1 −µ2 ) Z= σ2 σ2 +n n1 2 (n1 −1)S 2 (n −1)S 2 1+ 2 2 σ2 σ2 d = normal(0, 1) χ2 (n ∼ t(n1 +n2 −2) . (7.33) 1 +n2 −2) n1 +n2 −2 n1 +n2 −2 • Passo 2 — Obten¸˜o dos quantis de probabilidade ca   aα = −Ft−11 +n2 −2) (1 − α/2) (n  bα = Ft(n1 +n2 −2) (1 − α/2). (7.34) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a A invers˜o ´ an´loga... a e a • Passo 4 — Concretiza¸˜o ca IC(1−α)×100% (µ1 − µ2 ) = (¯1 − x2 ) − Ft−11 +n2 −2) (1 − α/2) × x ¯ (n (¯1 − x2 ) + Ft−11 +n2 −2) (1 − α/2) × x ¯ (n (n1 −1)s2 +(n2 −1)s2 1 1 2 ( n1 n1 +n2 −2 + (n1 −1)s2 +(n2 −1)s2 1 1 2 ( n1 n1 +n2 −2 1 ), n2 + 1 ) n2 (7.35) . Exemplo 7.20 — IC para a diferen¸a de valores esperados de duas popula¸oes c c˜ normais independentes, com variˆncias desconhecidas mas que se assume a serem iguais Para efectuar uma an´lise comparativa entre duas marcas de computadores pessoais, a an´lise essa baseada no tempo (em meses) at´ a necessidade da primeira repara¸ao, a e ` c˜ recolheram-se observa¸˜es que conduziram aos resultados co • Amostra 1: 20 i=1 xi 1 = 248, 20 i=1 x21 = 3560 i • Amostra 2: 12 i=1 xi 2 = 152, 12 i=1 x22 = 2730. i Admitindo que os tempos s˜o independentes e tˆm, para ambas as marcas, distribui¸oes a e c˜ normais com variˆncias desconhecidas mas iguais, determine um intervalo de confian¸a a a c 14 90% para a diferen¸a dos respectivos valores esperados. c 14 Adaptado do Exame de 13 de Julho de 2002. 233
  • 239. • V.a. Xi = tempo at´ 1a. repara¸ao de computador pessoal da marca i, i = 1, 2 e c˜ • Situa¸˜o ca 2 2 ⊥ X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) (µ1 − µ2 ) desconhecido 2 2 2 2 σ1 e σ2 desconhecidos mas que se assume serem iguais: σ1 = σ2 = σ 2 n1 = 20 ≤ 30 ou n2 = 12 ≤ 30. • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 2 (n1 −1)S1 +(n2 −1)S2 n1 +n2 −2 × 1 n1 + ∼ t(n1 +n2 −2) 1 n2 uma vez que ´ suposto determinar um IC exacto para a diferen¸a de valores e c esperados de duas popula¸oes normais independentes, com variˆncias desconhecidas c˜ a mas que se assume serem iguais. (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Ao ter em conta que, neste caso, n1 = 20, n2 = 12 e (1 − α) × 100% = 90% i.e., α = 0.1, usaremos os quantis de probabilidade:   aα = −Ft−11 +n2 −2) (1 − α/2) = −Ft−1 (0.95) = −1.697 (n (30)  bα = Ft(n1 +n2 −2) (1 − α/2) = Ft−1 (0.95) = 1.697. (30) tabela • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Este passo ´ mais uma vez omitido... e • Passo 4 — Concretiza¸˜o ca Ao notar que IC(1−α)×100% (µ1 − µ2 ) = (¯1 − x2 ) − Ft−11 +n2 −2) (1 − α/2) × x ¯ (n (¯1 − x2 ) + Ft−11 +n2 −2) (1 − α/2) × x ¯ (n 234 (n1 −1)s2 +(n2 −1)s2 1 1 2 ( n1 n1 +n2 −2 + (n1 −1)s2 +(n2 −1)s2 1 1 2 ( n1 n1 +n2 −2 1 ), n2 + 1 ) n2 ,
  • 240. onde n1 = 20, x1 = 12.4, s2 = 25.516 ¯ 1 n2 = 12, x2 = 12.67, s2 = 73.152 ¯ 2 Ft−11 +n2 −2) (1 − α/2) = 1.697, (n segue-se IC90% (µ1 − µ2 ) = (12.4 − 12.67) − 1.697 × (12.4 − 12.67) + 1.697 × (20−1)×25.516+(12−1)×73.152 1 ( 20 20+12−2 + (20−1)×25.516+(12−1)×73.152 1 ( 20 20+12−2 1 ), 12 + 1 ) 12 = [−4.33254, 3.79254]. • Motiva¸˜o 7.21 — IC aproximado para a diferen¸a de valores esperados de ca c popula¸˜es arbitr´rias independentes com variˆncias desconhecidas co a a 2 2 2 Nem sempre ´ razo´vel admitir que σ1 = σ2 = σ , muito em particular quando as e a 2 2 estimativas de σ1 e σ2 s˜o bem distintas. Contudo, ao lidarmos com n1 ≤ 30 e n2 ≤ 30, a n˜o podemos adiantar uma solu¸˜o satisfat´ria no ˆmbito desta disciplina. a ca o a Mas a situa¸˜o muda totalmente de figura, caso n1 > 30 e n2 > 30, j´ que nesta ca a situa¸ao podemos invocar dois resultados assint´ticos, nomeadamente, o TLC e o Teorema c˜ o de Slutsky, e deixamos de necessitar de assumir que as duas popula¸oes s˜o normais e que c˜ a 2 2 2 σ1 = σ2 = σ . • CASO 2 — IC aproximado para a diferen¸a de valores esperados de duas c popula¸˜es arbitr´rias independentes com variˆncias desconhecidas co a a • Situa¸˜o ca X1 ⊥ X2 , com distribui¸˜es arbitr´rias (possivelmente normais): ⊥ co a 2 µi , V (Xi ) = σi , i = 1, 2 (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 desconhecidos mas n˜o necessariamente iguais a n1 > 30 e n2 > 30, i.e., ambas as amostras s˜o suficientemente grandes. a 235 E(Xi ) =
  • 241. • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca Recorrendo ao TLC e ao Teorema de Slutsky obt´m-se a v.a. fulcral para µ1 − µ2 e que pode encontrar-se no formul´rio. Trata-se de uma variante da v.a. fulcral usada a no caso em que se pretendia IC para a diferen¸a de valores esperados de popula¸˜es c co normais com variˆncias conhecidas. a Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 S1 n1 + 2 S2 n2 a ∼ normal(0, 1). (7.36) (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca   aα = −Φ−1 (1 − α/2)  bα = Φ−1 (1 − α/2). (7.37) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a A invers˜o ´ an´loga... a e a • Passo 4 — Concretiza¸˜o ca O IC ´ dado por e IC(µ1 − µ2 ) = (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ −1 (¯1 − x2 ) + Φ (1 − α/2) × x ¯ s2 1 n1 s2 1 n1 + s2 2 , n2 + s2 2 n2 (7.38) e possui grau de confian¸a aproximadamente igual a (1 − α) × 100%. c Exemplo/Exerc´ ıcio 7.22 — IC aproximado para a diferen¸a de valores c esperados de duas popula¸˜es arbitr´rias independentes com variˆncias co a a desconhecidas Para comparar a resistˆncia ao uso de dois tipos de materiais cerˆmicos usados em e a pavimentos, foram colocados 81 mosaicos do primeiro tipo e 121 do segundo tipo num corredor movimentado de uma superf´ comercial. ıcie Ap´s um ano o seu desgaste foi medido numa escala conveniente. Para os mosaicos o do primeiro tipo obteve-se x1 = 290 e s1 = 12, enquanto que para os do segundo tipo os ¯ resultados foram x2 = 321 e s2 = 14. ¯ 236
  • 242. Assuma que, em ambos os casos, a distribui¸ao do desgaste ´ normal e que os desgastes c˜ e em mosaicos de tipo diferente s˜o independentes. Construa um intervalo de confian¸a a a c 95% para a diferen¸a entre os valores esperados do desgaste dos dois tipos de materiais, c assumindo que ˜ ˜ (a) as variˆncias s˜o desconhecidas mas nao sao necessariamente iguais;15 a a • V.a. Xi = desgaste do material do tipo i, i = 1, 2 • Situa¸˜o ca 2 2 X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ (µ1 − µ2 ) desconhecido 2 2 ˜ a σ1 e σ2 desconhecidos, no entanto, assume-se que nao s˜o iguais n1 = 81 >> 30, n2 = 121 >> 30 (suficientemente grandes) • Passo 1 — Selec¸˜o da v.a. fulcral para (µ1 − µ2 ) ca Uma vez que as dimens˜es das amostras s˜o suficientemente grandes podemos o a obter um IC aproximado para a diferen¸a de valores esperados de duas c popula¸oes arbitr´rias16 independentes, com variˆncias desconhecidas mas que c˜ a a se assume serem iguais, devemos utilizar a seguinte v.a. fulcral para (µ1 − µ2 ): Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 S1 n1 + 2 S2 n2 a ∼ normal(0, 1). (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Como o n´ ıvel aproximado de confian¸a ´ de (1 − α) × 100% = 95% (i.e., c e α = 0.05), recorre-se aos quantis   aα = −Φ−1 (1 − α/2) = −Φ−1 (0.975) = −1.9600  bα = Φ−1 (1 − α/2) = Φ−1 (0.975) = 1.9600 tabela tabela e ´ sabido que enquadram a v.a. fulcral Z com probabilidade aproximada (1 − e α). • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omitimos este passo... 15 16 Adaptado do Exame de 7 de Fevereiro de 2004. Por sinal estas popula¸˜es s˜o normais neste caso. co a 237
  • 243. • Passo 4 — Concretiza¸˜o ca Neste caso o IC aproximado ´ dado por e IC(µ1 − µ2 ) = (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ s2 1 n1 + s2 2 , n2 (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ s2 1 n1 + s2 2 n2 , onde n1 = 81, x1 = 290, s2 = 122 ¯ 1 n2 = 121, x2 = 321, s2 = 142 ¯ 2 Φ−1 (1 − α/2) = 1.9600. Logo obt´m-se e  IC(µ1 − µ2 ) = (290 − 321) − 1.9600 × 122 142 + , 81 121  (290 − 321) + 1.9600 × 122 142  + 81 121 = [−34.6128, −27.3872]. (b) as variˆncias s˜o desconhecidas e iguais. a a Neste caso podemos obter IC exacto, bastando para o efeito usarmos a v.a. fulcral para (µ1 − µ2 ) Z= ¯ ¯ (X1 − X2 ) − (µ1 − µ2 ) 2 2 (n1 −1)S1 +(n2 −1)S2 n1 +n2 −2 × 1 n1 + ∼ t(n1 +n2 −2) . 1 n2 • 238
  • 244. 7.6 Intervalo de confian¸a para a variˆncia de uma c a popula¸˜o normal. ca Motiva¸˜o 7.23 — IC para a variˆncia de popula¸˜o normal ca a ca At´ ao momento s´ adiant´mos IC para valores esperados ou diferen¸as de valores e o a c ´ altura de deduzir uma estimativa intervalar para a variˆncia, parˆmetro esperados. E a a este usualmente desconhecido a par do valor esperado da popula¸ao. Consideraremos a c˜ situa¸ao em que estamos a lidar com uma v.a. de interesse normalmente distribu´ com c˜ ıda 17 valor esperado desconhecido. • Considere-se ent˜o uma popula¸ao X ∼ normal(µ, σ 2 ), onde quer µ, quer σ 2 s˜o a c˜ a desconhecidos. • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 desconhecido. • Passo 1 — Selec¸˜o da v.a. fulcral para σ 2 ca De notar que a v.a. fulcral para σ 2 se encontra no formul´rio e depende de σ 2 a 2 (mas n˜o de µ) e, naturalmente, de um estimador de σ , neste caso S 2 . Adiantea se ainda que esta v.a. possui distribui¸˜o exacta com parˆmetros conhecidos, logo ca a 2 independente de σ . Trata-se de: Z= (n − 1)S 2 ∼ χ2 (n−1) . σ2 (7.39) (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Pelo facto da f.d.p. da v.a. do qui-quadrado n˜o ser sim´trica em rela¸˜o ` origem e a e ca a possuir suporte igual a I + , lidamos efectivamente com dois quantis n˜o s´ distintos R a o como n˜o sim´tricos: a e 17 Ao considerar-se o valor esperado conhecido, o procedimento descrito a seguir sofre ligeir´ ıssimas altera¸˜es, em particular, o n´mero de graus de liberdade da distribui¸˜o do qui-quadrado passa a ser co u ca igual a n. 239
  • 245.   (aα , bα ) :     P (Z < aα ) = α/2 P (Z > bα ) = α/2 −1 aα = F χ 2 (α/2) (n−1)  bα  −1 = F χ2 (7.40) (1 − α/2). (n−1) (Esquema...) Escusado ser´ dizer que este par de quantis se encontra tabelado. (Consulta da a tabela...) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a P (aα ≤ Z ≤ bα ) = 1 − α P aα ≤ (n−1)S 2 σ2 ≤ bα = 1 − α P 1 bα σ2 (n−1)S 2 ≤ P (n−1)S 2 bα ≤ ≤ σ2 ≤ 1 aα =1−α (n−1)S 2 aα = 1 − α. • Passo 4 — Concretiza¸˜o ca  IC(1−α)×100% (σ 2 ) =   2 2  (n − 1)s (n − 1)s  , . −1 − α/2) Fχ2 (α/2) −1 Fχ2 (1 (n−1) (7.41) (n−1) Exemplo 7.24 — IC para a variˆncia de popula¸˜o normal a ca Retome o Exemplo 7.20 e obtenha um intervalo de confian¸a a 90% para a variˆncia do c a 18 tempo at´ ` primeira repara¸ao de computadores da marca 1. ea c˜ • V.a. X = tempo at´ 1a. repara¸ao de computador pessoal da marca 1 e c˜ • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 desconhecido. 18 Adaptado do Exame de 13 de Julho de 2002. 240
  • 246. • Passo 1 — Selec¸˜o da v.a. fulcral para σ 2 ca Por pretendermos um IC para a variˆncia de popula¸ao normal faremos uso de: a c˜ (n − 1)S 2 Z= ∼ χ2 (n−1) . 2 σ (Ver formul´rio.) a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Ao ter-se em considera¸ao que n = n1 = 20 e (1 − α) × 100% = 90% far-se-´ uso c˜ a dos quantis n˜o sim´tricos: a e    −1 aα = F χ 2 tabela (n−1)  b  α −1 (α/2) = Fχ2 (0.05) = 10.12 (19) tabela −1 = F χ2 (n−1) −1 (1 − α/2) = Fχ2 (0.95) = 30.14. (19) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omite-se este passo... • Passo 4 — Concretiza¸˜o ca Ora, como a express˜o geral do IC para σ 2 ´ a e  IC(1−α)×100% (σ 2 ) =   2 2  (n − 1)s  (n − 1)s , , −1 − α/2) Fχ2 (α/2) −1 Fχ2 (1 (n−1) (n−1) onde, para este exemplo, se tem n = n1 = 20 s2 = 1 n−1 × [( n i=1 x2 ) − n(¯)2 ] = x i −1 F χ2 − 20 × 12.42 ) = 25.516 (α/2) = 10.12 −1 F χ2 1 (3560 20−1 (1 − α/2) = 30.14, (n−1) (n−1) conclui-se que IC90% (σ 2 ) = (20 − 1) × 25.516 (20 − 1) × 25.516 , 30.14 10.12 = [16.085, 47.905]. • Nota 7.25 — IC para a variˆncia de popula¸˜o arbitr´ria (n˜o normal) a ca a a Ao deixarmos de assumir que a popula¸˜o tem distribui¸˜o normal, nada se pode adiantar ca ca no que diz respeito ` estima¸ao intervalar da variˆncia no ˆmbito desta disciplina. a c˜ a a • 241
  • 247. 7.7 Intervalos de confian¸a para parˆmetros de c a popula¸˜es n˜o normais uniparam´tricas co a e Motiva¸˜o 7.26 — IC aproximado para uma probabilidade ca ´ E tamb´m altura de fornecer uma estimativa intervalar para a probabilidade de sucesso e de uma prova de Bernoulli. • Consideremos popula¸ao X ∼ Bernoulli(p), onde a probabilidade de sucesso p ´ c˜ e desconhecida. No ambito desta disciplina consideraremos somente o caso em que dispomos ˆ de um grande n´mero de observa¸˜es (bin´rias...). u co a • Situa¸˜o ca X ∼ Bernoulli(p) p desconhecido n suficientemente grande (n > 30). • Passo 1 — Selec¸˜o da v.a. fulcral para p ca Neste caso devemos recorrer a: Z= ¯ X −p ¯ ¯ X(1−X) n a ∼ normal(0, 1). (7.42) Esta v.a. fulcral consta do formul´rio e a respectiva distribui¸˜o decorre do TLC e a ca do Teorema de Slustky. Importa notar que Z depende de p e de um estimador deste mesmo parˆmetro, a ¯ a propor¸ao de sucessos na a.a. Note-se ainda que E(X) = E(X) = p e ¯ X, c˜ V (X) ¯ V (X) = n = p(1−p) . Deste modo, ao aplicar-se o TLC, obter´ ıamos a seguinte n v.a. fulcral para p: ¯ X −p p(1−p) n a ∼ normal(0, 1). (7.43) Contudo, a utiliza¸˜o desta v.a. fulcral torna a invers˜o da desigualdade do Passo 3 ca a muito dif´ uma vez que p figura em numerador e em denominador (neste ultimo ıcil ´ caso sob o sinal de uma ra´ ız). A v.a. fulcral para p, Z = ¯ X−p ¯ ¯ X(1−X) n , ´ de longe muito mais conveniente na referida e invers˜o. A respectiva distribui¸ao aproximada decorre da aplica¸ao do TLC e do a c˜ c˜ Teorema de Slutsky. 242
  • 248. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca   aα = Φ−1 (α/2) = −Φ−1 (1 − α/2)  bα = Φ−1 (1 − α/2). (7.44) • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a P (aα ≤ Z ≤ bα ) 1−α   P aα ≤ ¯ X−p ¯ ¯ X(1−X) n ¯ P X − bα × ≤ bα  ¯ ¯ X(1−X) n 1−α ¯ ≤ p ≤ X − aα × ¯ P X − Φ−1 (1 − α/2) × ¯ ¯ X(1−X) n ¯ ¯ X(1−X) n 1−α ¯ ≤ p ≤ X + Φ−1 (1 − α/2) × ¯ ¯ X(1−X) n 1 − α. • Passo 4 — Concretiza¸˜o ca O IC seguinte possui grau de confian¸a aproximadamente igual a (1 − α) × 100%: c IC(p) = x − Φ−1 (1 − α/2) × ¯ x(1−¯) ¯ x , n x + Φ−1 (1 − α/2) × ¯ x(1−¯) ¯ x n . (7.45) Exemplo/Exerc´ ıcio 7.27 — IC aproximado para uma probabilidade Um inqu´rito recente feito a 1000 habitantes de uma regi˜o rural revelou que 448 apoiam e a a aplica¸ao de penas de pris˜o pesadas em crimes de fogo posto. c˜ a (a) Construa um intervalo de confian¸a aproximado a 95% para a probabilidade (p) de c uma pessoa escolhida ao acaso na referida regi˜o ser favor´vel ` aplica¸˜o da referida a a a ca pena.19 • V.a. Xi = resposta da i − ´sima ao inqu´rito, i = 1, . . . , n e e i.i.d. Xi ∼ X • Situa¸˜o ca X ∼ Bernoulli(p) p desconhecido n = 1000 >> 30 (suficientemente grande). 19 Adaptado do Exame de 6 de Setembro de 2006. 243
  • 249. • Passo 1 — Selec¸˜o da v.a. fulcral para p ca ¯ X −p a Z= ∼ normal(0, 1). ¯ ¯ X(1−X) n uma vez que nos foi solicitada a determina¸ao de um IC aproximado para uma c˜ probabilidade e a dimens˜o da amostra justifica a aplica¸˜o do TLC e do Teorema a ca de Slutsky. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Os quantis a utilizar s˜o a   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.975) = −1.9600  b = Φ−1 (1 − α/2) = Φ−1 (0.975) = 1.9600. α Estes enquadram a v.a. fulcral para p com probabilidade aproximadamente igual a (1 − α). • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omite-se novamente este passo... • Passo 4 — Concretiza¸˜o ca Ao ter-se em considera¸ao que c˜ n = 1000 x= ¯ 1 n n i=1 xi = 448 1000 = propor¸ao observada de respostas afirmativas c˜ Φ−1 (1 − α/2) = 1.9600 conclui-se que o IC aproximado a 95% para p ´ dado por e  ¯ IC(p) = x − Φ−1 (1 − α/2) × x(1 − x) ¯ ¯ , n  x + Φ−1 (1 − α/2) × ¯  = 0.448 − 1.9600 × x(1 − x)  ¯ ¯ n 0.448 × (1 − 0.448) , 1000  0.448 + 1.9600 × 0.448 × (1 − 0.448)  1000 = [0.417178, 0.478822]. 244
  • 250. (b) Obtenha o IC aproximado para p 2 2n¯ + [Φ−1 (1 − α/2)] ± Φ−1 (1 − α/2) 4n¯ + [Φ−1 (1 − α/2)]2 − 4n¯2 x x x 2 n + [Φ−1 (1 − α/2)]2 ¯ que se obt´m ao recorrer-se a v.a. fulcral √ X−p e ` p(1−p)/n a ∼ normal(0, 1), de acordo com • Murteira (1990, Vol. II, p. 233). ´ E curioso notar que, recorrendo a um procedimento an´logo ao acabado de descrever, a tamb´m se pode obter um IC aproximado para um outro valor esperado, o da v.a. de e Poisson, como ilustra o exemplo seguinte. Exemplo 7.28 — IC aproximado para o valor esperado de popula¸˜o de ca Poisson Na famosa experiˆncia realizada pelo f´ e ısico Rutherford (em 1910), sobre a emiss˜o de a part´ ıculas α por uma fonte radioactiva, foi observado que em 2612 intervalos de 1/8 de minuto foram emitidas no total 9318 part´ ıculas. Admita que a vari´vel aleat´ria X, que a o representa o n´mero de part´ u ıculas emitidas por essa fonte radioactiva num intervalo de 1/8 de minuto, possui distribui¸ao de Poisson com parˆmetro µ. c˜ a Obtenha um intervalo de confian¸a aproximado a 90% para o valor esperado de X.20 c • V.a. X = n´mero de part´ u ıculas emitidas em intervalo de 1/8 de minuto • Situa¸˜o ca X ∼ Poisson(µ) µ = E(X) = V (X) desconhecido n >> 30 (suficientemente grande). • Passo 1 — Selec¸˜o da v.a. fulcral para µ ca Ao recorrermos ao TLC podemos afirmar que ¯ ¯ ¯ ¯ X −µ a X − E(X) X − E(X) = = ∼ normal(0, 1). µ V (X) ¯ V (X) n n 20 Adaptado do Exame de 8 de Julho de 2006. 245
  • 251. No entanto, esta v.a. fulcral n˜o s´ n˜o consta do formul´rio, como torna a invers˜o a o a a a da desigualdade do Passo 3 muito dif´ uma vez que µ figura em numerador e em ıcil denominador (neste ultimo caso sob o sinal de uma ra´ ´ ız). Posto isto invocaremos o TLC e do Teorema de Slutsky que garantem que Z= ¯ X −µ a ∼ normal(0, 1), ¯ X n ¯ e onde X ´ o estimador de MV de µ. Escusado ser´ dizer que esta v.a. fulcral para µ a ´ mais conveniente na referida invers˜o. e a • Passo 2 — Obten¸˜o dos quantis de probabilidade ca Usaremos os quantis   tabela aα = −Φ−1 (1 − α/2) = −Φ−1 (0.95) = −1.6449  b = Φ−1 (1 − α/2) = Φ−1 (0.95) = 1.6449 α pois enquadram a v.a. fulcral para µ com probabilidade aproximadamente igual a 0.90. • Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omite-se este passo... • Passo 4 — Concretiza¸˜o ca Uma vez que n = 2612 x= ¯ 1 n n i=1 xi = 9318 2612 = 3.5674 Φ−1 (1 − α/2) = 1.6449 segue-se o IC aproximado a 90% para µ ´ e  x ¯ , x + Φ−1 (1 − α/2) × ¯ n IC(µ) = x − Φ−1 (1 − α/2) × ¯  = 3.5674 − 1.6449 × 3.5674 , 3.5674 + 1.6449 × 2612  x ¯ n  3.5674  2612 = [3.5066, 3.6282]. • 246
  • 252. A seguir apresenta-se um quadro que nos parece extremamente util dado condensar ´ todos os intervalos de confian¸a que constam deste cap´ c ıtulo. Este quadro possui cinco colunas onde podemos encontrar: • o parˆmetro para o qual se destina o IC; a • em que circunstˆncias podemos recorrer a semelhante IC; a • uma estimativa pontual do referido parˆmetro; a • a v.a. fulcral a usar nesta situa¸ao; c˜ • e, por fim, o IC, que poder´ ser exacto ou aproximado.21 a 21 Esta destrin¸a ´ deixada ` aten¸˜o do leitor/a mas basta relembrar que os intervalos aproximados c e a ca est˜o associados ` utiliza¸˜o de uma v.a. fulcral com distribui¸˜o aproximada e, como tal, ap´s a express˜o a a ca ca o a a da v.a. segue-se o sinal ∼. 247
  • 253. 248 s2 x ¯ X ∼ Bernoulli(p) n suficientemente grande (n > 30) p (µ1 − µ2 ) X ∼ normal(µ, σ 2 ) µ desconhecido (¯1 − x2 ) x ¯ X1 ⊥ 2 com distribui¸˜es arbitr´rias ⊥X co a (possivelmente normais): 2 E(Xi ) = µi , V (Xi ) = σi , i = 1, 2 2 2 σ1 , σ2 desconhecidos mas n˜o necessariamente iguais a n1 > 30 e n2 > 30 (µ1 − µ2 ) σ2 (¯1 − x2 ) x ¯ 2 X1 ∼ normal(µ1 , σ1 ) 2 ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ 2 2 σ1 , σ2 desconhecidos mas IGUAIS n1 ≤ 30 ou n2 ≤ 30 x ¯ X com distribui¸˜o arbitr´ria: ca a E(X) = µ, V (X) = σ 2 2 σ desconhecido n suficientemente grande (µ1 − µ2 ) µ (¯1 − x2 ) x ¯ X1 ⊥ X2 , com distribui¸˜es ⊥ co arbitr´rias (n˜o normais): a a 2 E(Xi ) = µi , V (Xi ) = σi , i = 1, 2 2 2 σ1 , σ2 conhecidos n1 , n2 suficientemente grandes (µ1 − µ2 ) x ¯ (¯1 − x2 ) x ¯ 2 X1 ∼ normal(µ1 , σ1 ) 2 ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ 2 2 σ1 , σ2 conhecidos µ X ∼ normal(µ, σ 2 ) σ 2 desconhecido x ¯ X com distribui¸˜o arbitr´ria ca a (n˜o normal): E(X) = µ, a 2 V (X) = σ σ 2 conhecido n suficientemente grande µ x ¯ Estimativa pontual X ∼ normal(µ, σ 2 ) σ 2 conhecido Situa¸˜o ca µ Parˆmetro a ∼ normal(0, 1) ∼ normal(0, 1) a 1 + 1 n1 n2 ∼ normal(0, 1) ∼ normal(0, 1) ∼ χ2 (n−1) ¯ X−p ¯ ¯ X(1−X) n (n−1)S 2 σ2 S2 S2 1+ 2 n1 n2 ¯ ¯ (X1 −X2 )−(µ1 −µ2 ) a (n1 −1)S 2 +(n2 −1)S 2 1 2× n1 +n2 −2 ¯ ¯ (X1 −X2 )−(µ1 −µ2 ) normal(0, 1) ∼ t(n−1) ¯ X−µ a √ ∼ S/ n ¯ X−µ √ S/ n σ2 σ2 1+ 2 n1 n2 ¯ ¯ (X1 −X2 )−(µ1 −µ2 ) a σ2 σ2 1+ 2 n1 n2 ¯ ¯ (X1 −X2 )−(µ1 −µ2 ) normal(0, 1) ∼ normal(0, 1) ¯ X−µ a √ ∼ σ/ n ¯ X−µ √ σ/ n V.a. fulcral ∼ t(n +n −2) 1 2 n x(1−¯) ¯ x , n n s2 1 n1 s2 + n2 2 s2 + n2 , 2 × × x(1−¯) ¯ x n (n1 −1)s2 +(n2 −1)s2 1 2 n1 +n2 −2 (n1 −1)s2 +(n2 −1)s2 2 1 n1 +n2 −2 x + Φ−1 (1 − α/2) × ¯ (n−1)S 2 (n−1)S 2 , −1 −1 (1−α/2) F (α/2) χ2 χ2 (n−1) (n−1) x − Φ−1 (1 − α/2) × ¯ F (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ s2 1 n1 (1 − α/2) × n s (1 − α/2) × √ σ2 + n2 2 (n−1) (1 − α/2) × (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ (n1 +n2 −2) −1 (¯1 − x2 ) + Ft x ¯ (n1 +n2 −2) −1 (¯1 − x2 ) − Ft x ¯ n n σ2 1 n1 σ2 σ2 + n2 2 + n2 , 2 σ2 1 n1 σ2 + n2 , 2 −1 s ¯ (1 − α/2) × √ , x + Ft σ2 1 n1 σ2 1 n1 n s s x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ ¯ ¯ (n−1) −1 x − Ft ¯ (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ (¯1 − x2 ) + Φ−1 (1 − α/2) × x ¯ (¯1 − x2 ) − Φ−1 (1 − α/2) × x ¯ n σ σ x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ ¯ ¯ n σ σ x − Φ−1 (1 − α/2) × √ , x + Φ−1 (1 − α/2) × √ ¯ ¯ Intervalo de confian¸a c Quadro-resumo 1: Alguns intervalos de confian¸a. c 1 n1 2 2 1 + n 1 + n 1 n1 ,
  • 254. Cap´ ıtulo 8 Testes de hip´teses o Motiva¸˜o 8.1 — Testes de hip´teses ca o At´ ao momento procur´mos adiantar um valor razo´vel ou um intervalo de valores e a a razo´veis para um parˆmetro desconhecido de interesse, tirando partido da informa¸˜o a a ca amostral de que dispomos. ´ E altura de tirarmos partido dessa mesma informa¸ao para nos pronunciarmos sobre c˜ afirma¸oes relativas a esse mesmo parˆmetro desconhecido ou a outros aspectos da nossa c˜ a v.a. de interesse. N˜o se trata de um mero exerc´ a ıcio acad´mico mas sim de uma resposta e a uma necessidade decorrente da pr´tica. a Basta pensarmos na averigua¸˜o da ca veracidade/razoabilidade de uma afirma¸ao de: c˜ • um fabricante de autom´veis quanto ao valor esperado da quantidade de combust´ o ıvel consumida por cada 100Km por certo modelo fabricado; • uma produtora de um f´rmaco no que diz respeito a percentagem de pacientes que a ` consideram ter havido melhoras do seu estado de sa´de ap´s a administra¸˜o do u o ca f´rmaco. a • A exposi¸˜o da mat´ria deste cap´ ca e ıtulo muito se assemelha a do cap´ ` ıtulo anterior: ao inv´s de falarmos de intervalos de confian¸a para parˆmetros de interesse, apresentamos e c a testes de hip´teses para esses mesmos parˆmetros. Mais: a ordem de apresenta¸˜o dos o a ca testes de hip´teses respeita a do cap´ o ıtulo anterior. Para al´m de testes sobre parˆmetros, ser´ apresentado o teste de ajustamento do e a a qui-quadrado, bem como o teste de independˆncia do qui-quadrado, pese embora o facto e de este ultimo teste nem sempre figurar no programa da disciplina. ´ 249
  • 255. 8.1 No¸˜es b´sicas co a Antes de prosseguirmos ´ crucial adiantarmos algumas no¸oes fundamentais no ambito e c˜ ˆ dos testes de hip´teses, muito em particular o que se entende por hip´tese estat´ o o ıstica. Defini¸˜o informal 8.2 — Hip´tese estat´ ca o ıstica Qualquer afirma¸ao/conjectura acerca de c˜ • um parˆmetro desconhecido ou a • da distribui¸ao da v.a. de interesse, etc. c˜ • ser´ denominada de hip´tese estat´ a o ıstica. Defini¸˜o 8.3 — Hip´tese param´trica ca o e Trata-se de conjectura respeitante a um parˆmetro desconhecido, assumindo que se a conhece a distribui¸ao da v.a. de interesse (a menos de pelo menos um parˆmetro c˜ a desconhecido). • Exemplo 8.4 — Hip´tese param´trica o e ´ E usual que os fabricantes fa¸am afirma¸oes acerca dos seus produtos. Por exemplo, um c c˜ fabricante de baterias de 12V, para al´m de assumir que a dura¸˜o das mesmas (v.a. de e ca interesse) possui distribui¸ao normal, pretende convencer um seu grande cliente que o c˜ valor esperado da dura¸˜o das mesmas ´ de 1000 dias: ca e • V.a. de interesse X = dura¸ao de bateria de 12V c˜ • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ = E(X) desconhecido • Hip´tese o • µ = 1000 dias ´ E essencialmente com este tipo de hip´teses que iremos lidar ao longo deste cap´ o ıtulo, pelo que omitiremos o adjectivo “param´trica”sempre que nos parecer desnecess´rio. e a Ao lidar-se com hip´teses param´tricas, assumir-se-´ que o conjunto de valores o e a considerados poss´ ıveis/razo´veis para o parˆmetro desconhecido — i.e., o espa¸o de a a c parˆmetro Θ — possui pelo menos dois valores. a 250
  • 256. Defini¸˜o informal 8.5 — Hip´tese nula/alternativa ca o De um modo geral confrontamos duas hip´teses param´tricas: o e • a hip´tese mais relevante, usualmente designada de hip´tese nula e representada por o o H0 ; • uma hip´tese dita alternativa, representada por H1 . o Estas duas hip´teses param´tricas est˜o associadas a dois sub-espa¸os disjuntos de Θ: H0 o e a c atribui ao parˆmetro valores em Θ0 ⊂ Θ e H1 em Θ1 = ΘΘ0 . a • Exemplo 8.6 — Hip´tese nula/alternativa o H´ v´rias possibilidades de hip´tese alternativa para a hip´tese nula do Exemplo 8.4: a a o o • H0 : µ = µ0 = 1000 dias        • H1 :=       µ = µ1 µ < µ0 µ > µ0 µ = µ0 (hip´tese nula) o = 800 dias = 1000 dias = 1000 dias = 1000 dias (ponto de vista do consumidor) (ponto de vista do consumidor) (ponto de vista do fabricante) (compromisso entre ambos) Se assumirmos que a variˆncia da dura¸ao das baterias de 12V ´ conhecida estaremos a a c˜ e lidar com os seguintes espa¸os e sub-espa¸os de parˆmetro: c c a Espa¸o de parˆmetro c a Hip. Nula Θ0 Hip. Alternativa Θ1 = ΘΘ0 Θ = {800, 1000} H0 : µ = 1000 Θ0 = {1000} H1 : µ = 800 Θ1 = {800} Θ = (0, 1000] H0 : µ = 1000 Θ0 = {1000} H1 : µ < 1000 Θ1 = (0, 1000) Θ = [1000, +∞) H0 : µ = 1000 Θ0 = {1000} H1 : µ > 1000 Θ1 = (1000, +∞) Θ = (0, +∞) H0 : µ = 1000 Θ0 = {1000} H1 : µ = 1000 Θ1 = (0, +∞){1000} Conv´m ainda referir que os valores especificados nas hip´teses nula e alternativa nada e o tˆm a ver com valores observados na amostra, muito em particular com a estimativa (de e MV) do parˆmetro desconhecido µ, x. a ¯ • H´ v´rias possibilidades de classificar as hip´teses nula e alternativa, nomeadamente a a o no que diz respeito ` cardinalidade do sub-espa¸o de parˆmetro a elas associado... a c a 251
  • 257. Defini¸˜o 8.7 — Hip´tese simples/composta ca o Uma hip´tese param´trica Hi (i = 0, 1) diz-se: o e • simples, caso especifique um unico valor para o parˆmetro desconhecido ´ a correspondendo a um unico ponto no espa¸o param´trico, i.e., caso #Θi = 1 ´ c e (i = 0, 1); • composta, caso contr´rio. a • Exemplo 8.8 — Hip´tese simples/composta o Retome-se o Exemplo 8.4. Ao assumir-se que a v.a. de interesse possui distribui¸˜o normal ca com valor esperado desconhecido e variˆncia conhecida tem-se: a • H0 : µ = µ0 = 1000 dias — hip´tese simples (Θ0 = {1000}); o • H1 : µ < µ0 = 1000 dias — hip´tese composta (Θ1 = (0, 1000)). o Note-se, no entanto, que caso se assuma que a variˆncia ´ igualmente desconhecida, n˜o a e a s´ passamos a lidar com um espa¸o de parˆmetro ligeiramente diferente, como H0 passa o c a a ser tamb´m uma hip´tese composta. Com efeito, Θ = {(µ, σ 2 ) : µ, σ 2 > 0} = I + × I + e o R R e a hip´tese H0 : µ = µ0 = 1000 dias est´ associada ao sub-espa¸o Θ0 = {1000} × I + , o a c R que por sinal n˜o ´ um conjunto singular. a e • Defini¸˜o informal 8.9 — Hip´tese alternativa unilateral/bilateral ca o ´ E costume ir al´m na classifica¸˜o da hip´tese alternativa. Esta classificac˜o depende e ca o a tamb´m da hip´tese nula com que estejamos a lidar. H1 ´, em geral, de um dos trˆs e o e e seguintes tipos: • unilateral inferior, caso possua um sinal de menor (e.g., H0 : µ = 1000 dias e H1 : µ < 1000 dias);1 • unilateral superior, se possuir um sinal de maior (e.g., H0 : µ = 1000 dias e H1 : µ > 1000 dias);2 • bilateral, caso H1 tenha um sinal de diferente (e.g., H0 : µ = 1000 dias e H1 : µ = 1000 dias). • 1 2 Ou atribua um valor inferior ao conjecturado em H0 , e.g., H1 : µ = 800 dias. Ou atribua um valor superior ao conjecturado em H0 , e.g., H1 : µ = 1200 dias. 252
  • 258. Defini¸˜o informal 8.10 — Teste de hip´teses ca o Um teste de hip´teses n˜o passa de um procedimento estat´ o a ıstico que conduz a uma decis˜o acerca das hip´tese nula e alternativa, tendo em conta a informa¸ao amostral a o c˜ que recolhemos. • Nota 8.11 — Decis˜es em testes de hip´teses o o De acordo com a informa¸ao recolhida tomamos (de um modo geral) uma de duas decis˜es: c˜ o • rejeitar H0 ; • n˜o rejeitar H0 . a • Defini¸˜o informal 8.12 — Erros de 1a. e 2a. esp´cie ca e As decis˜es em testes de hip´teses podem ou n˜o ser correctas. Sen˜o vejamos: o o a a Situa¸˜o real ca Decis˜o a Rejeitar H0 N˜o rejeitar H0 a H0 Verdadeira H0 Falsa Erro de 1a. Esp´cie e Decis˜o Correcta a Decis˜o Correcta a Erro de 2a. Esp´cie e • Defini¸˜o 8.13 — Probabilidade de erro de 1a. e de 2a. esp´cie ca e ´ habitual delinear o teste de hip´teses de modo a minimizar as probabilidades de E o ocorrˆncia de erros de 1a. e 2a. esp´cie. Estas probabilidades costumam ser representadas e e por α e β, respectivamente, e definem-se do seguinte modo: α = P (Erro de 1a. esp´cie) = P (Rejeitar H0 | H0 ´ Verdadeira) e e (8.1) β = P (Erro de 2a. esp´cie) = P (N˜o rejeitar H0 | H0 ´ Falsa). e a e (8.2) • Qualquer destas probabilidades depender´, como veremos mais tarde, do verdadeiro a valor do parˆmetro. a Defini¸˜o 8.14 — N´ ca ıvel de significˆncia a ´ habitual estabelecer um limite superior para a probabilidade de ocorrˆncia de erro de E e 1a. esp´cie. Este limite ´ usualmente designado de n´ de significˆncia (n.s.) do teste e e e ıvel a representado doravante por α0 (α0 ∈ (0, 1)). O teste de hip´teses ser´ delineado de modo o a que 253
  • 259. • P (Rejeitar H0 | H0 ´ Verdadeira) ≤ α0 . e Os valores mais comuns do n.s. do teste s˜o 10%, 5% e 1%. a • Qualquer decis˜o pela rejei¸ao ou n˜o de H0 dever´ basear-se na informa¸ao recolhida, a c˜ a a c˜ muito em particular no • valor observado daquilo que chamaremos de uma estat´ ıstica de teste e designaremos por T . Defini¸˜o informal 8.15 — Estat´ ca ıstica de teste Uma estat´ ıstica de teste — a utilizar no confronto de um par de hip´teses que digam o respeito ao parˆmetro desconhecido θ — possui as seguintes caracter´ a ısticas: • reflecte a discrepˆncia entre o estimador de θ e o valor conjecturado para θ em H0 a (θ0 ); • obt´m-se, de um modo geral, a custa da v.a. fulcral Z — que usar´ e ` ıamos na constru¸ao c˜ de um intervalo de confian¸a para θ —, substituindo θ por θ0 na express˜o de Z; c a • tem distribui¸ao (exacta ou aproximada) conhecida, sob a validade de H0 . c˜ Exemplo 8.16 — Estat´ ıstica de teste Retomemos o Exemplo 8.4 e consideremos: • V.a. de interesse X = dura¸ao de bateria de 12V c˜ • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ = E(X) desconhecido σ 2 = V (X) conhecida • Hip´teses o H0 : µ = µ0 = 1000 dias vs. H1 : µ = µ0 • N´ ıvel de significˆncia a α0 = 5% 254 •
  • 260. Note-se que, caso pretendˆssemos construir um IC para µ, dever´ e ıamos utilizar a seguinte • V.a. fulcral para µ Z= ¯ X−µ √ σ/ n ∼ normal(0, 1). E ´ substituindo µ por µ0 na express˜o de Z que obtemos a... e a • Estat´ ıstica de teste T = ¯ X−µ0 √ σ/ n ∼H0 normal(0, 1), onde “∼H0 . . .”deve ler-se “tem distribui¸˜o . . . sob a validade de H0 ”. ca • Decidir pela rejei¸˜o ou n˜o de H0 pressup˜e tamb´m que se identifique: ca a o e • o conjunto de valores considerados cr´ ıticos para a estat´ ıstica de teste T que dever˜o a conduzir ` rejei¸ao de H0 . a c˜ Este conjunto ´, por isso mesmo, denominado de regi˜o cr´ e a ıtica ou de rejei¸ao de H0 (para c˜ valores da estat´ ıstica de teste). Defini¸˜o informal 8.17 — Regi˜o de rejei¸˜o de H0 (para valores da estat´ ca a ca ıstica de teste) Representamo-la por W e escolhemo-la de modo que: • P (Rejeitar H0 | H0 ´ Verdadeira) = α0 (≤ α0 ). e • seja um intervalo real (ou uma reuni˜o de intervalos reais) que depende de quantil(is) a de probabilidade relacionada com α0 e respeitantes ` distribui¸ao (exacta ou a c˜ aproximada) da estat´ ıstica de teste sob H0 ; • o seu aspecto dependa da hip´tese alternativa H1 e do que “significa”obter valores o inconsistentes com H0 . Exemplo 8.18 — Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) No Exemplo 8.16 conclu´ ımos rapidamente que quanto mais se distingue a estimativa de µ, x, do valor conjecturado para µ, µ0 = 1000 dias, menos consistente ´ H0 : µ = µ0 = 1000 ¯ e dias com os dados e mais consistente ´ H1 : µ = µ0 com os mesmos. e Efectivamente, quando, por exemplo, x = 750 dias (¯ = 1300 dias, resp.) de¯ x vemos, em princ´ ıpio, rejeitar H0 . Ora, nestes casos temos x << µ0 (¯ >> µ0 , resp.). ¯ x Equivalentemente, 255
  • 261. • t= x−µ0 ¯ √ σ/ n << 0 (t = x−µ0 ¯ √ σ/ n >> 0, resp.). Assim, a regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) ´ uma reuni˜o de e a intervalos — um ` esquerda (t << 0) e outro a direita (t >> 0) — ou seja a ` • W = (−∞, −c) ∪ (c, +∞), onde o valor cr´ ıtico c ´ escolhido de modo que e • P (Rejeitar H0 | H0 ´ Verdadeira) = α0 ⇔ P (T < −c ou T > c | H0 ) = α0 . e Assim, ` semelhan¸a do que acontecia com os intervalos de confian¸a lidaremos com o a c c seguinte quantil de probabilidade, para α0 = 5%: tabela • c = Φ−1 (1 − α0 /2) = Φ−1 (1 − 0.05/2) = 1.9600. • Uma vez escolhida a estat´ ıstica de teste e identificada a regi˜o de rejei¸ao de H0 para a c˜ a mesma, estamos em condi¸oes de poder tomar uma decis˜o. c˜ a Proposi¸˜o 8.19 — Decis˜o ca a Para decidir pela rejei¸ao ou n˜o de H0 ´ necess´rio calcular c˜ a e a • t = valor observado da estat´ ıstica de teste. Deve tomar-se uma de duas decis˜es: o • Rejeitar H0 ao n.s. α0 , se t ∈ W ; • N˜o rejeitar H0 ao n.s. α0 , se t ∈ W . a • Nota 8.20 — Decis˜o a • Afirmar que – H0 n˜o foi rejeitada ao n.s. α0 a n˜o significa que a – H0 seja verdadeira. • Analogamente, concluir que – H0 foi rejeitada ao n.s. α0 n˜o significa que a 256
  • 262. – H0 seja falsa. Significa sim que – H0 n˜o ´ consistente com os dados ao n.s. α0 . a e • Podemos rejeitar H0 ao n.s. α0 e n˜o rejeitar esta hip´tese a outro n.s. e vice-versa. a o Em suma, a decis˜o de rejeitar ou n˜o H0 depende crucialmente do n´ a a ıvel de significˆncia considerado. a • Apresentadas que foram as no¸˜es fundamentais em testes de hip´teses ´ altura de co o e apresentar o seu procedimento geral. Defini¸˜o informal 8.21 — Procedimento geral de testes de hip´teses ca o A efectua¸ao de um teste de hip´teses compreende os 7 passos seguintes: c˜ o 1. V.a. de interesse Identificar a v.a. de interesse (X). 2. Situa¸˜o ca Identificar a distribui¸ao da v.a. de interesse, o parˆmetro desconhecido que est´ a c˜ a a ser testado, bem como averiguar se a distribui¸ao de X depende de mais parˆmetros c˜ a e se estes s˜o conhecidos ou desconhecidos. a 3. Hip´teses o Especificar as hip´teses nula (H0 ) e alternativa (H1 ). o 4. N´ ıvel de significˆncia a Escolher o n´ de significˆncia (α0 ). ıvel a 5. Estat´ ıstica de teste Escolher a estat´ ıstica de teste adequada (T ) e identificar a sua distribui¸ao (exacta c˜ ou aproximada) sob a validade de H0 . 6. Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Obter a regi˜o de rejei¸˜o de H0 para valores da estat´ a ca ıstica de teste (W ), tendo em conta o n´ de significˆncia e a hip´tese alternativa. ıvel a o 257
  • 263. 7. Decis˜o a Calcular o valor observado da estat´ ıstica de teste (t) e decidir pela rejei¸ao ou n˜o c˜ a de H0 ao n.s. α0 . • As sec¸oes que se seguem consistem essencialmente na apresenta¸˜o de um ou dois c˜ ca exemplos ilustrativos do teste que d´ por t´ a ıtulo a sec¸˜o. Note-se, no entanto, que, de um ca modo geral, em qualquer das sec¸oes ser´ introduzido um conceito novo no ˆmbito dos c˜ a a testes de hip´teses pelo que se recomenda a leitura integral de todas elas. o 258
  • 264. 8.2 Testes de hip´teses para o valor esperado, o variˆncia conhecida. a Tal como na obten¸ao de IC para o valor esperado de uma popula¸˜o com variˆncia c˜ ca a conhecida, distinguiremos dois casos: 1. Popula¸ao normal c˜ 2. Popula¸ao com distribui¸ao arbitr´ria e dimens˜o da amostra suficientemente c˜ c˜ a a grande. Ilustraremos a efectua¸˜o destes dois testes com exemplos. ca Exemplo 8.22 (caso 1) — Teste sobre valor esperado de popula¸˜o normal, ca variˆncia conhecida a Um fabricante de baterias de 12V — para al´m de assumir que a dura¸˜o das mesmas e ca (v.a. de interesse) possui distribui¸˜o normal com desvio-padr˜o conhecido e igual a 50 ca a dias — pretende convencer um seu grande cliente que o valor esperado da dura¸ao das c˜ mesmas ´ de 1000 dias. e Averigue a razoabilidade desta afirma¸ao do fabricante de baterias ao n´ c˜ ıvel de significˆncia de 5% e tendo em conta que a m´dia da dura¸ao de 4 baterias testadas a e c˜ foi de 930 dias. • V.a. de interesse X = dura¸˜o de bateria de 12V ca • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 = 502 dias2 conhecido • Hip´teses o H0 : µ = µ0 = 1000 dias vs. H1 : µ = µ0 = 1000 dias • N´ ıvel de significˆncia a α0 = 5% 259
  • 265. • Estat´ ıstica de teste ¯ X − µ0 √ ∼H0 normal(0, 1) T = σ/ n (8.3) pois estamos a efectuar um teste sobre o valor esperado de uma popula¸˜o normal ca com variˆncia conhecida. a • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Por estarmos a lidar com teste bilateral, a regi˜o de rejei¸ao de H0 , escrita para a c˜ valores da estat´ ıstica de teste, ´ uma reuni˜o de intervalos do tipo e a W = (−∞, −c) ∪ (c, +∞), (8.4) onde c : P (Rejeitar H0 |H0 ) = α0 , i.e., tabela c = Φ−1 (1 − α0 /2) = Φ−1 (1 − 0.05/2) = 1.9600. (8.5) • Decis˜o a Uma vez que o valor observado da estat´ ıstica de teste ´ igual a e x − µ0 ¯ √ σ/ n 930 − 1000 √ = 50/ 4 = −2.8 t = ∈ W = (−∞, −1.9600) ∪ (1.9600, +∞), (8.6) conclui-se que devemos rejeitar H0 ao n.s. de 5%, pelo que o cliente tem raz˜es para o desconfiar do fabricante. • 260
  • 266. Exemplo 8.23 (caso 2) — Teste sobre valor esperado de popula¸˜o com ca distribui¸˜o arbitr´ria e dimens˜o da amostra suficientemente grande, ca a a variˆncia conhecida a Ao estudar-se a densidade de constru¸˜o (X) num projecto de urbaniza¸ao foi recolhida ca c˜ 50 uma amostra de 50 lotes desse projecto, tendo-se obtido i=1 xi = 227.2.3 At´ que ponto ´ razo´vel afirmar que valor esperado da densidade de constru¸ao ´ e e a c˜ e igual a 5, assumindo que o desvio-padr˜o de X ´ igual a 4 e um n.s. de 10% ? a e • V.a. de interesse X = densidade de constru¸ao em projecto de urbaniza¸ao c˜ c˜ • Situa¸˜o ca X com distribui¸ao arbitr´ria (n˜o normal): E(X) = µ, V (X) = σ 2 c˜ a a µ desconhecido σ 2 conhecido n suficientemente grande (n = 100 > 30) • Hip´teses o H0 : µ = µ0 = 5 vs. H1 : µ = µ0 • N´ ıvel de significˆncia a α0 = 10% • V.a. fulcral para µ e estat´ ıstica de teste De acordo com o TLC, pode afirmar-se que: ¯ ¯ ¯ X −µ a X − E(X) √ ∼ normal(0, 1). = Z = σ/ n ¯ V (X) Substituindo µ por µ0 na express˜o desta v.a. fulcral, obtemos a seguinte estat´ a ıstica de teste com distribui¸ao aproximada conhecida sob H0 : c˜ ¯ X − µ0 a √ ∼H0 normal(0, 1). T = (8.7) σ/ n • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) O teste ´ bilateral, logo a regi˜o de rejei¸ao de H0 (para valores da estat´ e a c˜ ıstica de teste) ´ uma reuni˜o de intervalos do tipo W = (−∞, −c) ∪ (c, +∞), onde e a c : P (Rejeitar H0 |H0 ) α0 , i.e., 3 Adaptado do Exame de 19 de Janeiro de 2002. 261
  • 267. tabela c = Φ−1 (1 − α0 /2) = Φ−1 (1 − 0.10/2) = 1.6449. (8.8) • Decis˜o a Como o valor observado da estat´ ıstica de teste ´ igual a e x − µ0 ¯ √ σ/ n 227.2/50 − 5 √ = 4/ 50 = −0.81 t = ∈ W = (−∞, −1.6449) ∪ (1.6449, +∞), deve afirmar-se que n˜o devemos rejeitar H0 ao n.s. de 10%. a 262 (8.9) •
  • 268. 8.3 Testes de hip´teses sobre a igualdade de dois o valores esperados, variˆncias conhecidas. a Motiva¸˜o 8.24 — Testes de hip´teses sobre a igualdade de dois valores ca o esperados, variˆncias conhecidas a Ao confrontar duas popula¸oes independentes — representando, por exemplo, os c˜ desempenhos de dois tipos de artigos (resistˆncia, dura¸ao, etc.) — ´ usual testar a e c˜ e igualdade dos seus valores esperados, sejam eles µ1 e µ2 . E importa notar que a hip´tese o de igualdade de valores esperados, H0 : µ1 = µ2 (8.10) ´ equivalente a e H0 : µ1 − µ2 = µ0 = 0. (8.11) • Distinguiremos novamente dois casos: 1. Duas popula¸˜es independentes, com distribui¸oes normais com variˆncias co c˜ a conhecidas 2. Duas popula¸oes independentes, com distribui¸oes arbitr´rias com variˆncias c˜ c˜ a a conhecidas, e dimens˜es das duas amostras suficientemente grandes. o Exemplo 8.25 (caso 1) — Teste sobre a igualdade de valores esperados de duas popula¸˜es normais, variˆncias conhecidas co a Um fabricante produz dois tipos de pl´stico e pretende saber se as suas resistˆncias a e possuem valores esperados iguais. Com objectivo de esclarecer esta d´vida, recolheu u duas amostras, tendo registado as seguintes observa¸oes: c˜ • Tipo 1 — x1 = (26, 24, 22, 30) • Tipo 2 — x2 = (25, 31, 33, 29). Assumindo que as resistˆncias de Tipo 1 e 2 s˜o v.a. independentes com distribui¸ao e a c˜ normal e desvios-padr˜o iguais a σ1 = 7 e σ2 = 3, respectivamente, teste a • a hip´tese de igualdade dos valores esperados das resistˆncias o e contra 263
  • 269. • a hip´tese do valor esperado da resistˆncia do pl´stico de Tipo 1 ser inferior a do o e a ` Tipo 2. Considere para o efeito o n.s. de 5%. • V.a. de interesse X1 = resistˆncia do pl´stico de Tipo 1 e a X2 = resistˆncia do pl´stico de Tipo 2 e a • Situa¸˜o ca 2 2 X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ (µ1 − µ2 ) desconhecido 2 2 σ1 = 72 e σ2 = 32 (conhecidos) • Hip´teses o H0 : µ1 − µ2 = µ0 = 0 (µ1 = µ2 ) vs. H1 : µ1 − µ2 < µ0 = 0 (µ1 < µ2 ) • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de teste T = ¯ ¯ (X1 − X2 ) − µ0 2 σ1 n1 + 2 σ2 n2 ∼H0 normal(0, 1) (8.12) uma vez que pretendemos efectuar teste sobre a igualdade de valores esperados de duas popula¸˜es independentes com distribui¸ao normal e variˆncias conhecidas. co c˜ a • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Tratando-se de – um teste unilateral inferior (H1 : µ1 − µ2 < µ0 = 0), conclu´ ımos que, quanto menor for a estimativa de MV de (µ1 − µ2 ), (¯1 − x2 ), mais x ¯ raz˜es temos para rejeitar H0 . Assim, a regi˜o de rejei¸ao de H0 (para valores da o a c˜ estat´ ıstica de teste) ´ um intervalo a esquerda e ` W = (−∞, c), (8.13) onde tabela c = Φ−1 (α0 ) = −Φ−1 (1 − α0 ) = −Φ−1 (1 − 0.05) = −1.6449. 264 (8.14)
  • 270. • Decis˜o a Uma vez que n1 = n2 = 4 e as m´dias das duas amostras s˜o iguais a x1 = 25.5 e e a ¯ x2 = 29.5, o valor observado da estat´ ¯ ıstica de teste ´ dado por e t = = (¯1 − x2 ) − µ0 x ¯ 2 σ1 n1 + 2 σ2 n2 (25.5 − 29.5) − 0 72 4 + 32 4 = −1.05 ∈ W = (−∞, −1.6449). (8.15) Deste modo, conclu´ ımos que n˜o devemos rejeitar a hip´tese de igualdade dos valores a o esperados das resistˆncias dos dois tipos de pl´stico (H0 ) ao n.s. de 5%. (Fa¸a um e a c coment´rio que entender pertinente...) a • Nota 8.26 — Decis˜o a diversos n´ a ıveis de significˆncia a ´ E curioso notar que no Exemplo 9.4 n˜o se rejeita H0 a qualquer n´ de significˆncia a ıvel a menor ou igual a 5% pois     W5% = (−∞, −1.6449) −1.05 ∈  W2.5% = (−∞, −1.9600)   W1% = (−∞, −2.3263) (8.16) sugerindo que enunciemos os seguintes resultados. • Proposi¸˜o 8.27 — Decis˜o a diversos n´ ca a ıveis de significˆncia a ´ crucial ter presente os seguintes resultados: E • N˜o rejeitar H0 ao n.s. α0 ⇒ N˜o rejeitar H0 a qualquer n.s. α0 ≤ α0 ; a a • Rejeitar H0 ao n.s. α0 ⇒ Rejeitar H0 a qualquer n.s. α0 ≥ α0 . • (Justifique elaborando um esquema!) 265
  • 271. Exerc´ ıcio 8.28 (caso 2) — Teste sobre a igualdade de valores esperados de popula¸˜es independentes com distribui¸˜o arbitr´ria e dimens˜o da amostra co ca a a suficientemente grande, variˆncias conhecidas a Conceba um enunciado de um teste de hip´teses para o caso 2 e complete os passos o seguintes do procedimento geral de hip´teses: o • V.a. de interesse • Situa¸˜o ca 2 X1 ⊥ X2 , com distribui¸oes arbitr´rias (n˜o normais): E(Xi ) = µi , V (Xi ) = σi , i = ⊥ c˜ a a 1, 2 (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 conhecidos n1 e n2 suficientemente grandes. • Hip´teses o • N´ ıvel de significˆncia a • Estat´ ıstica de teste ¯ ¯ ( X1 − X2 ) − µ0 2 σ1 n1 + 2 σ2 n2 a ∼H0 normal(0, 1) (8.17) • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) • Decis˜o a • 266
  • 272. 8.4 Fun¸˜o potˆncia de um teste ca e Motiva¸˜o 8.29 — Fun¸˜o potˆncia de um teste ca ca e Ao efectuar-se um teste ´ usual saber qual a probabilidade de rejeitar H0 quando esta e ´ hip´tese ´ verdadeira. E igualmente importante determinar a probabilidade de tomar a o e seguinte decis˜o acertada: rejeitar H0 quando H0 ´ falsa. a e • Comecemos por relembrar que, ao definirmos as hip´teses nula (H0 ) e alternativa o (H1 ) sobre o parˆmetro desconhecido θ, subdividimos o espa¸o de parˆmetro em dois a c a sub-espa¸os Θ0 e Θ1 , respectivamente. Para al´m disso, recorde-se que a probabilidade c e de cometer erros de 1a. e 2a. esp´cie s˜o fun¸oes de θ definidas por e a c˜ α = α(θ) = P (Rejeitar H0 | H0 ´ verdadeira) e = P (T ∈ W | θ), θ ∈ Θ0 (8.18) β = β(θ) = P (N˜o rejeitar H0 | H0 ´ falsa) a e = P (T ∈ W | θ), θ ∈ Θ1 . (8.19) Defini¸˜o 8.30 — Fun¸˜o potˆncia de um teste ca ca e A fun¸˜o potˆncia de um teste corresponde ` probabilidade de rejei¸ao da hip´tese nula ca e a c˜ o (quer esta seja verdadeira, quer seja falsa): p(θ) = P (Rejeitar H0 | θ) = P (T ∈ W | θ), θ ∈ Θ =   α(θ), θ ∈ Θ0  1 − β(θ), θ ∈ Θ1 . (8.20) • Caso H0 seja uma hip´tese nula simples, o sub-espa¸o Θ0 ´ singular e temos o c e p(θ) =   α(θ0 ), θ ∈ Θ0 = {θ0 }  1 − β(θ), θ ∈ Θ1 . 267 (8.21)
  • 273. Exemplo 8.31 — Fun¸˜o potˆncia de um teste ca e Para definir a fun¸˜o potˆncia do teste descrito no Exemplo 8.22, ´ necess´rio relembrar ca e e a o seguinte: • V.a. de interesse X = dura¸˜o de bateria de 12V ca • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 = 502 dias conhecido n=4 • Hip´teses o H0 : µ = µ0 = 1000 dias vs. H1 : µ = µ0 dias • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de teste T = ¯ X − µ0 √ ∼H0 normal(0, 1) σ/ n (8.22) • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) W = (−∞, −1.9600) ∪ (1.9600, +∞). Assim sendo, segue-se: • Espa¸o e sub-espa¸os de parˆmetro c c a Θ = (0, +∞) Θ0 = {µ0 } Θ1 = Θ{µ0 } 268
  • 274. • Fun¸˜o potˆncia do teste ca e p(µ) = P (Rejeitar H0 | µ) = P (T ∈ W | µ) ¯ ¯ X − µ0 X − µ0 √ < −1.9600 ou √ > 1.9600 | µ = P σ/ n σ/ n ¯ X − µ + µ − µ0 √ < −1.9600 | µ = P σ/ n ¯ X − µ + µ − µ0 √ > 1.9600 | µ +P σ/ n ¯ X −µ √ < −1.9600 + σ/ n ¯ X −µ √ > 1.9600 + +P σ/ n = P = Φ −1.9600 + µ0 − µ √ |µ σ/ n µ0 − µ √ |µ σ/ n µ0 − µ µ0 − µ √ √ + 1 − Φ 1.9600 + , µ ∈ Θ. (8.23) σ/ n σ/ n • Concretiza¸oes c˜ Note-se, por exemplo, que: µ = µ0 = 1000 dias → p(µ0 ) = Φ(−1.9600) + 1 − Φ(1.9600) = 2 × [1 − Φ(1.9600)] = 0.05 = α0 ; µ = µ1 = 1025 dias → p(µ1 ) = Φ(−1.9600 − 1) + 1 − Φ(1.9600 − 1) = [1 − Φ(2.9600)] + [1 − tabela Φ(0.9600)] = (1 − 0.9985) + (1 − 0.8315) = 0.1700. A interpreta¸˜o do ultimo destes resultados passa por afirmar que, caso o verdadeiro ca ´ valor esperado da dura¸˜o das baterias de 12V seja igual a µ = µ1 = 1025 dias, o ca teste ´ capaz de rejeitar H0 em 17% das vezes. e • Exerc´ ıcio 8.32 — Fun¸˜o potˆncia de um teste ca e (a) Recorra a um software que lhe seja familiar para elaborar o gr´fico da fun¸˜o a ca potˆncia do teste descrito no Exemplo 8.31. Comente. e (b) Elabore tamb´m o gr´fico da fun¸˜o potˆncia de teste quando se confrontam as e a ca e hip´teses H0 : µ = µ0 e H1 : µ = µ0 mas se utiliza a regi˜o de rejei¸˜o W = o a ca (−∞, −1.96). Comente este gr´fico e compare-o com o que obteve na al´ a ınea (a). • 269
  • 275. 8.5 Testes de hip´teses para o valor esperado, o variˆncia desconhecida. a ´ E de longe mais realista efectuar um teste sobre µ assumindo que σ 2 ´ igualmente e desconhecido. Mais, tal como na Sec¸ao 8.2, ser´ necess´rio fazer a destrin¸a entre os c˜ a a c dois casos seguintes: 1. Popula¸ao normal c˜ 2. Popula¸ao com distribui¸ao arbitr´ria e dimens˜o da amostra suficientemente c˜ c˜ a a grande. Exemplo 8.33 (caso 1) — Teste sobre o valor esperado de popula¸˜o normal, ca variˆncia desconhecida a A dura¸ao (em horas de uso) de certa marca de pilha para m´quinas fotogr´ficas c˜ a a digitais possui distribui¸ao que se admite normal com valor esperado µ e variˆncia c˜ a σ 2 desconhecidos. Um revendedor dessas baterias adquiriu recentemente um grande lote e seleccionou uma amostra de 10 baterias, tendo obtido as seguintes dura¸oes c˜ a x = (251, 238, 236, 229, 252, 253, 245, 242, 235, 230). De notar que a esta amostra est˜o 10 10 associados i=1 xi = 2411 e i=1 x2 = 582009. i O revendedor pretende averiguar se o valor esperado da dura¸˜o ´ de 250 horas. Teste ca e esta hip´tese ao n´ de significˆncia de 10%, contra a hip´tese alternativa defendida pelo o ıvel a o produtor que defende que tal valor esperado ´ superior a 250 horas. e • V.a. de interesse X = dura¸˜o (em horas de uso) de certa marca de pilha ca • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 desconhecido • Hip´teses o H0 : µ = µ0 = 250 horas vs. H1 : µ > µ0 = 250 horas • N´ ıvel de significˆncia a α0 = 10% 270
  • 276. • Estat´ ıstica de teste T = ¯ X − µ0 √ ∼H0 t(n−1) S/ n (8.24) dado que pretendemos efectuar teste sobre o valor esperado de uma popula¸˜o ca normal com variˆncia desconhecida. a • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Estamos a lidar com – um teste unilateral superior (H1 : µ > µ0 ), pelo que, quanto maior for a estimativa de MV de µ, x, mais nos devemos inclinar ¯ para a rejei¸˜o H0 . Assim sendo, a regi˜o de rejei¸˜o de H0 (para valores da ca a ca estat´ ıstica de teste) ´ um intervalo a direita e ` W = (c, +∞), (8.25) onde c : P (RejeitarH0 |H0 ) = α0 , i.e., tabela c = Ft−1 (1 − α0 ) = Ft−1 (1 − 0.10) = 1.383. (n−1) (10−1) (8.26) • Decis˜o a Tendo em conta que n = 10 e a m´dia e a variˆncia corrigida da amostra s˜o iguais e a a a x = ¯ 2411 1 n xi = = 241.1 n i=1 10 n 1 x2 − n (¯)2 x n − 1 i=1 i 1 = [582009 − 10 × (241.1)2 ] 10 − 1 = 79.66 (8.27) s2 = (8.28) (respectivamente), o valor observado da estat´ ıstica de teste ´ dado por e t = = x − µ0 ¯ √ s/ n 241.1 − 250 79.66/10 = −3.15 ∈ W = (1.383, +∞). (8.29) 271
  • 277. Deste modo, conclu´ ımos que n˜o devemos rejeitar H0 ao n.s. de 10% nem a qualquer a 4 outro n.s. menor que 10%. • Exemplo 8.34 (caso 2) — Teste sobre o valor esperado de popula¸˜o com ca distribui¸˜o arbitr´ria, variˆncia desconhecida ca a a Retome o Exemplo 8.33 e desta feita assuma que o revendedor desconhece a distribui¸ao c˜ da dura¸ao dessas baterias, adquiriu um grande lote e seleccionou uma amostra n˜o de c˜ a 2 10 mas sim de 50 baterias, tendo obtido x = 241.1 e s = 398.3. ¯ Volte a testar as hip´teses nula e alternativa consideradas anteriormente ao n.s. de o 10%. • V.a. de interesse X = dura¸˜o (em horas de uso) de certa marca de pilha ca • Situa¸˜o ca X distribui¸ao arbitr´ria c˜ a µ = E(X) desconhecido σ 2 = V (X) desconhecido n suficientemente grande (n = 50 > 30) • Hip´teses o H0 : µ = µ0 = 250 horas vs. H1 : µ > µ0 = 250 horas • N´ ıvel de significˆncia a α0 = 10% • Estat´ ıstica de teste T = ¯ X − µ0 a √ ∼H0 normal(0, 1) S/ n (8.30) porque pretendemos efectuar teste sobre o valor esperado de uma popula¸ao c˜ com distribui¸ao arbitr´ria e variˆncia desconhecida e a dimens˜o da amostra ´ c˜ a a a e suficientemente grande e justifica o recurso a um resultado limite. 4´ E curioso notar que caso estiv´ssemos a testar H0 : µ = µ0 = 250 horas vs. H1 : µ < µ0 rejeitar´ e ıamos H0 ao referido n.s. (Justique...) 272
  • 278. • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Tratando-se de um teste unilateral superior (H1 : µ > µ0 ), a regi˜o de rejei¸˜o de a ca H0 (para valores da estat´ ıstica de teste) ´ a mesma um intervalo a direita e` ` W = (c, +∞), onde agora c : P (RejeitarH0 |H0 ) α0 , pelo que tabela c = Φ−1 (1 − α0 ) = Φ−1 (1 − 0.10) = 1.6449. • Decis˜o a Uma vez que n = 50, x = 241.1 e s2 = 398.3 tem-se: ¯ t = = x − µ0 ¯ √ s/ n 241.1 − 250 398.3/50 = −3.15 ∈ W = (1.6449, +∞). (8.31) Pode ent˜o afirmar-se que n˜o devemos rejeitar H0 a qualquer outro n.s. menor ou a a igual a 10%. • Terminamos esta sec¸ao apresentando um exemplo similar ao apresentado no final da c˜ sec¸ao 7.4. Diz respeito a um teste sobre o valor esperado de uma v.a. de interesse X cuja c˜ distribui¸ao depende de um unico parˆmetro desconhecido e que, embora o valor esperado c˜ ´ a E(X) e a variˆncia V (X) dependam desse mesmo parˆmetro, o TLC s´ por si basta para a a o obter uma v.a. fulcral (logo uma estat´ ıstica de teste para o valor esperado sem que seja necess´rio estimar V (X). a 273
  • 279. Exemplo/Exerc´ ıcio 8.35 — Teste sobre valor esperado de popula¸˜o com ca distribui¸˜o arbitr´ria e dimens˜o da amostra suficientemente grande, ca a a variˆncia desconhecida mas que n˜o carece de estima¸˜o... a a ca Admita que o desvio absoluto de uma medi¸˜o instrumental em rela¸ao a uma norma ´ ca c˜ e 5 uma v.a. X com distribui¸ao exponencial com parˆmetro λ desconhecido. c˜ a ¯ ¯ ¯ (a) Calcule E(X) e V (X), onde X representa, naturalmente, a m´dia de uma amostra e aleat´ria de dimens˜o n proveniente da popula¸ao X. Tirando partido dos resultados o a c˜ anteriores mostre que, para n suficientemente grande, se tem √ a ¯ Z = (λX − 1) n ∼ normal(0, 1). (b) Tendo em conta a v.a. fulcral Z, teste a hip´tese H0 : λ = λ0 = 1 contra a alternativa o bilateral H1 : λ = λ0 , ao n´ de significˆncia de α0 = 10% e a luz do facto da soma ıvel a ` dos desvios absolutos da amostra x = (x1 , . . . , x40 ) ser igual a 40 xi = 47.5408. i=1 • V.a. de interesse X = desvio absoluto de uma medi¸ao instrumental em rela¸˜o a uma norma c˜ ca • Situa¸˜o ca X ∼ exponencial(λ) λ desconhecido n suficientemente grande (n = 40 > 30) • Hip´teses o H0 : λ = λ0 = 1 vs. H1 : λ = λ0 • N´ ıvel de significˆncia a α0 = 10% • V.a. fulcral para λ e estat´ ıstica de teste Comece-se por notar que: ¯ E(X) = E(X) = ¯ V (X) = 5 1 λ V (X) 1 = < +∞. n n λ2 Adaptado do Exame de 18 de Janeiro de 2003. 274
  • 280. Ent˜o, de acordo com o TLC, pode afirmar-se que a Z = = ¯ ¯ X − E(X) ¯ V (X) ¯ X− 1 λ 1 n λ2 √ ¯ = (λX − 1) n a ∼ normal(0, 1). (8.32) Substituindo λ por λ0 na express˜o desta v.a. fulcral, obtemos a seguinte estat´ a ıstica de teste com distribui¸ao aproximada conhecida sob H0 : c˜ √ a ¯ T = (λ0 X − 1) n ∼H0 normal(0, 1). (8.33) • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Tratando-se de um teste bilateral, a regi˜o de rejei¸˜o de H0 (para valores da a ca estat´ ıstica de teste) ´ uma reuni˜o de intervalos do tipo W = (−∞, −c) ∪ (c, +∞), e a onde c : P (Rejeitar H0 |H0 ) α0 , i.e., tabela c = Φ−1 (1 − α0 /2) = Φ−1 (1 − 0.10/2) = 1.6449. • Decis˜o a Dado que o valor observado da estat´ ıstica de teste ´ igual a e √ t = (λ0 x − 1) n ¯ √ = (1 × 47.5408/40 − 1) 40 = 1.192 ∈ W = (−∞, −1.6449) ∪ (1.6449, +∞), conclui-se que n˜o devemos rejeitar H0 ao n.s. de 10%, nem a qualquer outro n.s. a menor que 10%. • 275
  • 281. 8.6 Um m´todo alternativo de decis˜o em testes de e a hip´teses: c´lculo do p-value o a Motiva¸˜o 8.36 — C´lculo do p-value ca a A decis˜o pela rejei¸˜o ou n˜o de H0 depende crucialmente do n´ de significˆncia α0 a ca a ıvel a que tenhamos considerado. Ora, em vez de fixarmos o n.s. do teste, de identificarmos a regi˜o de rejei¸ao de H0 a c˜ e de verificarmos se o valor observado da estat´ ıstica de teste (t) pertence ou n˜o a tal a regi˜o, podemos proceder do seguinte modo: a • tomar o valor de t e averiguar • para que n´ ıveis de significˆncia se decide pela rejeicao de H0 e a ¸˜ ˜ • para que n´ ıveis de significˆncia se decide pela nao rejeicao de H0 . a ¸˜ • Passemos agora a um exemplo por forma a continuar a motivar o c´lculo do que a designaremos por p-value. Exemplo 8.37 — C´lculo do p-value a Retomemos o problema do fabricante de baterias de 12V, descrito no Exemplo 8.22. Recordemos que temos: • V.a. de interesse X = dura¸˜o de bateria de 12V ca • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 = 502 dias2 conhecido. • Hip´teses o H0 : µ = µ0 = 1000 dias vs. H1 : µ = µ0 = 1000 dias • N´ ıvel de significˆncia a Desta feita consideremos um n.s. arbitr´rio α0 . a 276
  • 282. • Estat´ ıstica de teste ¯ X − µ0 √ ∼H0 normal(0, 1) T = σ/ n (8.34) • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Sabemos que se trata de uma reuni˜o de intervalos do tipo W = (−∞, −c)∪(c, +∞), a onde c = Φ−1 (1 − α0 /2). (8.35) • Decis˜o a Ora, j´ vimos que o valor observado da estat´ a ıstica de teste ´ igual a t = −2.8. Logo, e consultando a tabela de quantis da distribui¸˜o normal(0, 1) conclui-se que: ca – por um lado,   (−∞, −1.6449) ∪ (1.6449, +∞), para α0 = 10%      (−∞, −1.9600) ∪ (1.9600, +∞), para α = 5% 0 t = −2.8 ∈ Wα0 =  (−∞, −2.5758) ∪ (2.5758, +∞), para α0 = 1%      (8.36) (−∞, −2.7478) ∪ (2.7478, +∞), para α0 = 0.6%, devendo rejeitar-se H0 a qualquer n.s. α0 ≥ 0.6%; – por outro lado, t = −2.8 ∈ Wα0 =   (−∞, −2.8782) ∪ (2.8782, +∞), para α0 = 0.4%      (−∞, −3.0902) ∪ (3.0902, +∞), para α0 = 0.2% . . . %, (8.37) e neste caso n˜o se deve rejeitar H0 a qualquer n.s. α0 ≤ 0.4%. a Importa ainda notar que, caso o ponto cr´ ıtico que define a regi˜o de rejei¸ao de H0 a c˜ fosse c = |t|, (8.38) ter´ ıamos a seguinte regi˜o de rejei¸ao de H0 a c˜ W = (−∞, −|t|) ∪ (|t|, +∞), (8.39) com n´ de significˆncia associado igual a (Esquema...) ıvel a 277
  • 283. P (T < −|t| ou T > |t| | H0 ) = 2 × [1 − Φ(|t|)] = 2 × [1 − Φ(2.8)] = 2 × [1 − 0.9974] = 0.0052 = 0.52%. (8.40) Para al´m disso, e t = −2.8 ∈ W0.52% = (−∞, −2.8) ∪ (2.8, +∞) (8.41) donde – n˜o rejeitar´ a ıamos H0 ao n.s. de 0.52% nem a qualquer n.s. menor que 0.52%; – rejeitar´ ıamos H0 a qualquer n.s. maior que 0.52%. 0.52% ´, neste exemplo, o “ponto de viragem” da nossa decis˜o pela rejei¸˜o ou n˜o e a ca a de H0 . Este ponto ´ genericamente designado de... e • Defini¸˜o informal 8.38 — P-value ca Dado o valor observado da estat´ ıstica de teste • o p − value ´ o maior n´ de significˆncia que leva ` n˜o rejei¸˜o de H0 . e ıvel a a a ca Para al´m disso, devemos agir do seguinte modo: e • n˜o rejeitar H0 a qualquer n´ de significˆncia α0 ≤ p − value; a ıvel a • rejeitar H0 a qualquer n´ de significˆncia α0 > p − value.6 ıvel a E quanto menor for o p − value, maior ´ a evidˆncia contra H0 . e e 6 • Posto isto, podemos acrescentar que o p − value ´ o “menor” (aqui com as devidas aspas) n´ de e ıvel significˆncia que leva ` rejei¸˜o de H0 . a a ca 278
  • 284. Nota 8.39 — P-value O c´lculo do p − value depende do aspecto da regi˜o de rejei¸ao de H0 (para valores da a a c˜ estat´ ıstica de teste: W Teste P-value (−∞, c) unilateral inferior P (T < t | H0 ) = FT |H0 (t) (c, +∞) unilateral superior P (T > t | H0 ) = 1 − FT |H0 (t) (−∞, −c) ∪ (c, +∞) bilateral e T |H0 com P (T < −|t| ou T > |t| | H0 ) distrib. sim´trica em e Esquema... = 2 × [1 − FT |H0 (|t|)] rela¸˜o ` origem ca a • 279
  • 285. 8.7 Testes de hip´teses o sobre a igualdade de valores esperados de duas popula¸˜es, variˆncias co a desconhecidas. No ambito desta disciplina, caso pretendamos confrontar os valores esperados de duas ˆ popula¸oes normais independentes com variˆncias desconhecidas e estejamos a lidar com c˜ a amostras de dimens˜es que n˜o s˜o suficientemente grandes que justifiquem o recurso a o a a um resultado assint´tico, teremos que assumir que as variˆncias s˜o iguais, ali´s, tal como o a a a aconteceu no cap´ ıtulo anterior. Exemplo 8.40 (caso 1) — Teste sobre a igualdade de valores esperados de popula¸˜es normais, variˆncias desconhecidas co a Foram efectuados estudos em Los Angeles e New York com o objectivo de determinar a concentra¸˜o de mon´xido de carbono (CO) perto de vias r´pidas. Para isso recolheramca o a se amostras de ar para as quais se determinou a respectiva concentra¸ao de CO (usando c˜ para isso um espect´metro). Os resultados das medi¸oes em ppm (partes por milh˜o) o c˜ a foram no per´ ıodo de uma semana: • Los Angeles — x1 = (112.2, 118.4, 114.1) • New York — x2 = (101.1, 102.2, 100.4, 98.6, 88.2). Posteriormente, num programa televisivo em que se debatiam quest˜es ambientais, o o presidente da cˆmara de New York afirmou que: “A m´dia da concentra¸˜o de CO em a e ca Los Angeles ´ superior ou igual a de New York”. e ` Diga se esta afirma¸˜o ´ consistente com os dados, determinando para o efeito um ca e intervalo para o p − value. • V.a. de interesse X1 = concentra¸ao de CO em Los Angeles c˜ X2 = concentra¸ao de CO em New York c˜ • Situa¸˜o ca 2 2 X1 ∼ normal(µ1 , σ1 ) ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ (µ1 − µ2 ) desconhecido 2 2 2 2 σ1 e σ2 desconhecidos, no entanto, assume-se que s˜o IGUAIS: σ1 = σ2 = σ 2 a n1 ≤ 30 ou n2 ≤ 30 280
  • 286. • Hip´teses o H0 : µ1 − µ2 ≥ µ0 = 0 vs. H1 : µ1 − µ2 < µ0 • N´ ıvel de significˆncia a α0 com valor arbitr´rio a • Estat´ ıstica de teste T = ¯ ¯ ( X1 − X2 ) − µ0 2 2 (n1 −1)S1 +(n2 −1)S2 n1 +n2 −2 ∼µ1 −µ2 =µ0 t(n1 +n2 −2) 1 × ( n1 + (8.42) 1 ) n2 pois estamos a efectuar teste sobre a igualdade dos valores esperados de duas popula¸oes independentes com distribui¸˜es normais, cujas variˆncias, embora c˜ co a desconhecidas, se assume serem iguais. • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Tratando-se de – um teste unilateral inferior (H1 : µ1 − µ2 < µ0 = 0), conclu´ ımos que a regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) ´ e um intervalo ` esquerda do tipo W = (−∞, c), onde c : P (Rejeitar H0 |µ1 − µ2 = a µ0 ) = α0 , ou seja, c = Ft−1 +n (n 1 2 −2) (α0 ) = −Ft−1 +n (n 1 2 −2) (1 − α0 ). (8.43) • Decis˜o a Ora, n1 = 3, x1 = 114.9 e s2 = 10.09 ¯ 1 2 n2 = 5, x2 = 98.1 e s2 = 32.34, ¯ logo o valor observado da estat´ ıstica de teste ´ igual a e t = = (¯1 − x2 ) − µ0 x ¯ (n1 −1)s2 +(n2 −1)s2 1 2 n1 +n2 −2 1 × ( n1 + 1 ) n2 (114.9 − 98.1) − 0 (3−1)10.09+(5−1)32.34 3+5−2 1 × (3 + 1) 5 = 3.237. (8.44) 281
  • 287. Uma vez que este teste est´ associado a uma regi˜o de rejei¸ao de H0 que ´ um a a c˜ e intervalo a esquerda temos: ` p − value = P (T < t | µ1 − µ2 = µ0 ) = FT |µ1 −µ2 =µ0 (t) = Ft(3+5−2) (3.237). (8.45) Recorrendo `s tabelas de quantis da distribui¸˜o de t-student com 6 graus de a ca liberdade podemos adiantar um intervalo para o p−value deste teste. Com efeito, ao enquadrarmos convenientemente t = 3.237 por dois quantis, obtemos sucessivamente Ft−1 (0.99) = 3.143 < t = 3.237 < 3.707 = Ft−1 (0.995) (3+5−2) (3+5−2) 0.99 < p − value = Ft(3+5−2) (3.237) < 0.995. (8.46) Deste modo, o intervalo aproximado para o p − value ´ (0.99,0.995), pelo que e – n˜o devemos rejeitar H0 a qualquer n.s. α0 ≤ 99%; a – rejeitar H0 a qualquer n.s. α0 ≥ 99.5%. Mais, pela ordem de grandeza do p − value, a hip´tese defendida pelo presidente da o cˆmara de New York (H0 ) afigura-se altamente consistente com os dados obtidos. • a Ainda a prop´sito do exemplo anterior, note-se que, pelo facto das amostras possuirem o dimens˜o 3 e 5, n˜o seria l´ a a ıcito recorrer a qualquer resultado assint´tico, pelo que a o solu¸ao satisfat´ria no ˆmbito desta disciplina passa por assumir que as variˆncias, embora c˜ o a a desconhecidas, s˜o iguais. Acrescente-se, no entanto, que um teste pr´vio de igualdade a e das mesmas permite-nos concluir que esta hip´tese n˜o deve ser rejeitada a qualquer dos o a n´ ıveis usuais de significˆncia. a 2 2 Mas nem sempre ´ razo´vel admitir que σ1 = σ2 = σ 2 , muito em particular quando e a 2 2 as estimativas de σ1 e σ2 s˜o bem distintas. Recorde-se que, caso n1 > 30 e n2 > 30, a podemos invocar dois resultados assint´ticos, nomeadamente, o TLC e o Teorema de o Slutsky, e deixa de ser necess´rio assumir que as duas popula¸oes s˜o normais e que as a c˜ a variˆncias, embora desconhecidas, s˜o iguais. a a 282
  • 288. Exemplo 8.41 (caso 2) — Teste sobre a igualdade de valores esperados de popula¸oes independentes com distribui¸˜o arbitr´ria e amostras c˜ ca a suficientemente grandes, variˆncias desconhecidas a Para comparar a resistˆncia ao uso de dois tipos de materiais cerˆmicos usados em e a pavimentos, foram instalados 81 mosaicos do primeiro tipo e 121 do segundo tipo num corredor movimentado de uma superf´ ıcie comercial. Ap´s um ano o seu desgaste foi o medido numa escala conveniente. Para os mosaicos do primeiro tipo obteve-se x1 = 290 ¯ e s1 = 12, enquanto que para os do segundo tipo os resultados foram x2 = 321 e s2 = 14. ¯ O fabricante do primeiro tipo de material afirma que o valor esperado do desgaste dos seus mosaicos ´ inferior ao dos mosaicos do segundo tipo de material. Efectue um teste e de hip´teses que entender razo´vel, assumindo que os desgastes em mosaicos diferentes o a s˜o v.a. independentes e um n´ de significˆncia de 1%. 7 a ıvel a • V.a. de interesse X1 = desgaste dos mosaicos do primeiro tipo de material X2 = desgaste dos mosaicos do segundo tipo de material • Situa¸˜o ca X1 ⊥ ⊥ X2 , com distribui¸˜es co 2 E(Xi ) = µi , V (Xi ) = σi , i = 1, 2 arbitr´rias a (possivelmente normais): (µ1 − µ2 ) desconhecido 2 2 σ1 e σ2 desconhecidos mas n˜o necessariamente iguais a n1 > 30 e n2 > 30, i.e., ambas as amostras s˜o suficientemente grandes a • Hip´teses o H0 : µ1 − µ2 = µ0 = 0 vs. H1 : µ1 − µ2 < µ0 = 0 (pretens˜o do fabricante do a primeiro tipo de material) • N´ ıvel de significˆncia a α0 = 1% • Estat´ ıstica de teste T = 7 ¯ ¯ (X1 − X2 ) − µ0 2 S1 n1 + 2 S2 n2 a ∼H0 normal(0, 1) Adaptado do Exame de 07 de Fevereiro de 2004. 283 (8.47)
  • 289. por tratar-se de teste sobre a igualdade dos valores esperados de duas popula¸˜es co independentes com distribui¸ao arbitr´ria com variˆncias desconhecidas e estarmos c˜ a a a lidar com amostras suficientemente grandes. • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Lidamos novamente com um teste unilateral inferior (H1 : µ1 − µ2 < µ0 = 0), logo a regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) ´ um intervalo a e ` esquerda W = (−∞, c), onde c : P (Rejeitar H0 |H0 ) α0 , i.e., c = Φ−1 (α0 ) = −Φ−1 (1 − α0 ) = −Φ−1 (0.99) = −2.3263. (8.48) • Decis˜o a Uma vez que n1 = 81, x1 = 290 e s1 = 12 ¯ n2 = 121, x2 = 321 e s2 = 14, ¯ o valor observado da estat´ ıstica de teste ´ igual a e t = = (¯1 − x2 ) − µ0 x ¯ s2 1 n1 + s2 2 n2 (290 − 321) − 0 122 81 + 142 121 = −16.82 ∈ W = (−∞, −2.3263). (8.49) Assim sendo, devemos rejeitar H0 a qualquer n.s. α0 ≥ 1%. Posto isto podemos afirmar que a pretens˜o do fabricante do primeiro tipo de material (desgaste a esperado menor) ´ consistente com os dados aos n´ e ıveis usuais de significˆncia. a • 284
  • 290. 8.8 Testes de hip´teses para a variˆncia de uma o a popula¸˜o normal. ca ´ E tamb´m costume especular sobre a variˆncia de uma v.a. de interesse. e a Caso esta v.a. possua distribui¸˜o normal, podemos adiantar uma estat´ ca ıstica de teste com distribui¸ao exacta do qui-quadrado sob a validade de H0 . c˜ Exemplo 8.42 — Teste de hip´teses sobre a variˆncia de uma popula¸˜o o a ca normal Admita que a resistˆncia ` tens˜o de uma fibra tˆxtil (em psi) possui distribui¸ao normal, e a a e c˜ 2 com valor esperado µ desconhecido, e averigue se a variˆncia ´ igual a σ0 = 50 psi2 ou se a e pelo contr´rio ´ superior a este valor, a luz da amostra x = (1018, 982, 1007, 1015, 978) e a e ` ao n.s. de 5%. • V.a. de interesse X = resistˆncia ` tens˜o de uma fibra tˆxtil (em psi) e a a e • Situa¸˜o ca X ∼ normal(µ, σ 2 ) µ desconhecido σ 2 desconhecido. • Hip´teses o 2 2 H0 : σ 2 = σ0 = 50 psi2 vs. H1 : σ 2 > σ0 • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de teste T = (n − 1) S 2 ∼H0 χ2 (n−1) 2 σ0 (8.50) pois pretendemos efectuar um teste sobre a variˆncia de uma popula¸˜o normal com a ca valor esperado desconhecido. 285
  • 291. • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) 2 a c˜ Tratando-se de um teste unilateral superior (H1 : σ 2 > σ0 ), a regi˜o de rejei¸ao de H0 (para valores da estat´ ıstica de teste) ´ um intervalo a direita do tipo W = (c, +∞), e ` onde c : P (Rejeitar H0 |H0 ) = α0 , ou seja, −1 c = F χ2 (n−1) −1 (1 − α0 ) = Fχ2 tabela (1 − 0.05) = 9.488. (8.51) (5−1) • Decis˜o a O valor observado da estat´ ıstica ´ igual a e (n − 1) s2 t = 2 σ0 (5 − 1) × 351.5 = 50 = 28.12 ∈ W = (9.488, +∞). (8.52) Deste modo devemos rejeitar H0 ao n.s. de 5% ou a qualquer outro n.s. maior que 5%. • 286
  • 292. 8.9 Outro m´todo alternativo de decis˜o em testes de e a hip´teses: rela¸˜o entre intervalos de confian¸a e o ca c testes bilaterais. Existe ainda uma outra alternativa de efectua¸ao de testes de hip´teses que passa por c˜ o invocar uma analogia entre intervalos de confian¸a e testes, nomeadamente bilaterais, c como se pode ver na proposi¸ao que se segue. c˜ Proposi¸˜o 8.43 — Rela¸˜o entre intervalos de confian¸a e testes de hip´teses ca ca c o bilaterais Seja • IC(1−α0 )×100% (θ) = [l, u] um intervalo de confian¸a para θ. Ent˜o este IC leva ` c a a • rejei¸ao de H0 : θ = θ0 ao n´ de significˆncia α0 c˜ ıvel a 8 a favor da hip´tese alternativa bilateral H1 : θ = θ0 , caso o • θ0 ∈ IC(1−α0 )×100% (θ). • Este resultado faz todo o sentido uma vez que, caso o valor conjecturado para θ, θ0 , n˜o perten¸a ao conjunto de valores razo´veis para θ associados ao grau de confian¸a a c a c (1 − α0 ) × 100%, faz todo o sentido rejeitar H0 ao n.s. de α0 . Nota 8.44 — Rela¸˜o entre intervalos de confian¸a e testes bilaterais ca c Para invocar esta analogia, ´ necess´rio que a estat´ e a ıstica de teste tenha sido obtida a ` custa da v.a. fulcral para θ que usada na constru¸ao de IC(1−α0 )×100% (θ). c˜ • 8 Ou a qualquer outro n.s. superior a α0 . 287
  • 293. Exemplo 8.45 — Rela¸˜o entre intervalos de confian¸a e testes bilaterais ca c Retomemos o Exemplo 8.42, construamos um IC a 95% para σ 2 e averiguemos a 2 2 razoabilidade de H0 : σ 2 = σ0 = 50psi2 contra a hip´tese alternativa bilateral H1 : σ 2 = σ0 o ao n´ de significˆncia de α0 = 5%. ıvel a • Passo 1 — Selec¸˜o da v.a. fulcral para σ 2 ca (n − 1)S 2 ∼ χ2 Z= (n−1) 2 σ (8.53) j´ que estamos a obter um IC para a variˆncia de uma popula¸ao normal com valor a a c˜ esperado desconhecido. • Passo 2 — Obten¸˜o dos quantis de probabilidade ca    −1 aα 0 = F χ 2  b  α0 tabela (n−1) −1 = Fχ2 (n−1) −1 (α0 /2) = Fχ2 (0.025) = 0.484 (4) (8.54) tabela −1 (1 − α0 /2) = Fχ2 (0.975) = 11.14. (4) • Passo 3 — Invers˜o da desigualdade aα0 ≤ Z ≤ bα0 a [TPC] • Passo 4 — Concretiza¸˜o ca  IC(1−α0 )×100% (σ 2 ) =   2 2  (n − 1)s  (n − 1)s ,  −1 − α0 /2) Fχ2 (α0 /2) −1 Fχ2 (1 (n−1) (n−1) (5 − 1)351.5 (5 − 1)351.5 , 11.14 0.484 = [126.212, 2904.959]. = (8.55) • Hip´teses o 2 2 H0 : σ 2 = σ0 = 50psi2 vs. H1 : σ 2 = σ0 • Decis˜o a Invocando a rela¸˜o entre intervalos de confian¸a e testes de hip´teses, pode concluirca c o se que, pelo facto de 2 σ0 = 50 ∈ IC95% (σ 2 ) = [126.212, 2904.959], (8.56) 2 devemos rejeitar H0 ao n.s. de 5% (a favor de H1 : σ 2 = σ0 ) ou a qualquer outro n.s. maior que 5%. • 288
  • 294. 8.10 Testes de hip´teses o para parˆmetros a de popula¸˜es n˜o normais uniparam´tricas. co a e No ambito desta disciplina aprenderemos, por exemplo, a efectuar testes assint´ticos sobre ˆ o uma probabilidade de sucesso desconhecida. Vejamos um exemplo. Exemplo 8.46 — Teste sobre uma probabilidade de sucesso Um fabricante de cerveja afirma que a sua bebida tem a preferˆncia de 40% dos e apreciadores de cerveja. Recolhida uma amostra, constatou-se que 54 de 150 apreciadores preferem tal marca. Averigue a razoabilidade da afirma¸˜o do fabricante ao n´ ca ıvel de significˆncia de 4%.9 a • V.a. de interesse Neste caso estamos a lidar com a seguinte v.a. de interesse: X =   1,  0, se o indiv´ ıduo prefere a marca de cerveja c.c. (8.57) • Situa¸˜o ca X ∼ Bernoulli(p) p desconhecido n suficientemente grande (n = 150 >> 30) • Hip´teses o H0 : p = p0 = 0.40 vs. H1 : p = p0 • N´ ıvel de significˆncia a α0 = 4% • Estat´ ıstica de teste Sabe-se que o estimador de MV de p ´ e 1 n ¯ Xi , X= n i=1 (8.58) onde Xi ∼i.i.d. X. Para al´m disso, e 9 Adaptado do Exame de 4 de Fevereiro de 2003. 289
  • 295. ¯ E(X) = E(X) = p 1 p(1 − p) ¯ V (X) = V (X) = < +∞. n n Ent˜o pelo TLC pode afirmar-se que a Z = ¯ ¯ ¯ X − E(X) X −p a ∼ normal(0, 1), = p(1−p) ¯ V (X) (8.59) (8.60) (8.61) n pelo que a estat´ ıstica de teste ´ e T = ¯ X − p0 p0 (1−p0 ) n a ∼H0 normal(0, 1). (8.62) De notar que esta estat´ ıstica de teste, ao contr´rio das que us´mos at´ ao momento, a a e n˜o foi obtida ` custa da v.a. fulcral a a ¯ X −p a ∼ normal(0, 1), (8.63) Z= ¯ ¯ X(1−X) n que ter´ ıamos utilizado para obter um IC assint´tico para o parˆmetro p. Esta o a decis˜o prende-se essencialmente com o facto de n˜o ser necess´ria qualquer invers˜o a a a a 10 de duplas desigualdades do tipo −c ≤ Z ≤ c no ˆmbito dos testes de hip´teses. a o • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Tratando-se de um teste bilateral, a regi˜o de rejei¸ao de H0 , escrita para a c˜ valores da estat´ ıstica de teste, ´ do tipo W = (−∞, −c) ∪ (c, +∞), onde c : e P (Rejeitar H0 |H0 ) α0 , ou seja, tabela c = Φ−1 (1 − α0 /2) = Φ−1 (1 − 0.04/2) = 2.0537. (8.64) • Decis˜o a Dado que o valor observado da estat´ ıstica de teste ´ igual a e t = = x − p0 ¯ p0 (1−p0 ) n 54 − 0.4 150 0.4(1−0.4) 150 = −1.0 ∈ W = (−∞, −2.0537) ∪ (2.0537, +∞), 10 (8.65) Relembre-se que a utiliza¸˜o da v.a. fulcral para p, Z , foi evitada pois tornava a invers˜o da ca a desigualdade do Passo 3 da obten¸˜o de ICs extraordinariamente dif´ uma vez que p figura em ca ıcil numerador e em denominador (neste ultimo caso sob o sinal de uma ra´ ´ ız). 290
  • 296. conclui-se que n˜o devemos rejeitar H0 ao n.s. de 4%. Deste modo, pode dizer-se a que a afirma¸ao do fabricante ´ consistente com os dados ao n.s. de 4%, bem como c˜ e a qualquer outro n.s. menor que 4%. • Exerc´ ıcio 8.47 — P-value de teste sobre uma probabilidade de sucesso Prove que o valor aproximado para o p − value do teste assint´tico efectuado no o Exemplo 8.46 ´ igual a 2 × [1 − Φ(| − 1|)] = 0.3174. e • Refira-se ainda no final do cap´ ıtulo podem encontrar-se dois quadros-resumo que sistematizam os testes de hip´teses param´tricas aqui leccionados considerando em o e qualquer dos casos um n´ de significˆncia de α0 . Nas suas cinco colunas constam: ıvel a • as circunstˆncias em que estamos a efectuar o teste de hip´teses; a o • a hip´tese nula (H0 ); o • a estat´ ıstica de teste a utilizar nesta situa¸˜o (T ); ca • a hip´tese alternativa (H1 ); o • a regi˜o de rejei¸ao de H0 escrita para valores da estat´ a c˜ ıstica de teste (W ). 291
  • 297. 8.11 Teste de ajustamento do qui-quadrado de Pearson. O teste de ajustamento do qui-quadrado permite averiguar a adequa¸ao de c˜ • uma distribui¸˜o com todos os parˆmetros conhecidos (hip´tese simples — ca a o subsec¸oes 8.11.1 e 8.11.4) ou de c˜ • uma distribui¸˜o com pelo menos um parˆmetro desconhecido, i.e., uma fam´ de ca a ılia distribui¸oes (hip´tese composta — subsec¸oes 8.11.2 e 8.11.4) c˜ o c˜ a um conjunto de dados referente a • uma v.a. de interesse do tipo discreto ou cont´ ınuo. Este teste exige, no entanto, • um grande n´mero de observa¸oes (uma vez que se baseia num resultado assint´tico) u c˜ o e pressup˜e que o • os dados estejam organizados em classes e disponhamos de uma tabela de frequˆncias. e De notar que estas classes devem n˜o s´ ser disjuntas, como cobrir todo o contradom´ a o ınio da v.a. de interesse. A apresenta¸ao deste mesmo teste far-se-´ essencialmente ` custa de exemplos. c˜ a a Contudo importa referir que recorreremos ao procedimento geral de testes de hip´teses e o que lidaremos com uma estat´ ıstica de teste cujo valor observado reflecte as • discrepˆncias (relativas) a entre • as frequˆncias absolutas observadas das classes da tabela de frequˆncias e e e • as frequˆncias esperadas (ou suas estimativas) dessas mesmas classes sob a validade e da hip´tese nula. o Esta estat´ ıstica de teste possui distribui¸ao assint´tica do qui-quadrado, sob a validade c˜ o de H0 . Acrescente-se tamb´m que o n´mero de graus de liberdade desta distribui¸˜o do e u ca qui-quadrado depende do n´mero de: u 292
  • 298. • classes em que est˜o organizados os dados da tabela de frequˆncias; a e • parˆmetros n˜o especificados em H0 e que, consequentemente, ´ necess´rio estimar. a a e a Conv´m ainda referir que no decurso do teste de ajustamento do qui-quadrado ´ por e e vezes necess´ria o agrupamento de classes adjacentes e refazer parcialmente os c´lculos. a a Recorreremos mais uma vez a um exemplo para ilustrar esta situa¸ao, na sub-sec¸ao c˜ c˜ 8.11.3. Por fim e a t´ ıtulo de mera curiosidade, ilustrar-se-´ o recurso a classes equiprov´veis a a 11 no teste de ajustamento de qui-quadrado, na sub-sec¸ao 8.11.5. c˜ 11 Ainda ` laia de conclus˜o refira-se que h´ outros testes de ajustamento que n˜o requerem tantas a a a a observa¸oes como ´ o caso do teste de ajustamento de Kolmogorov-Smirnov que n˜o faz parte do programa c˜ e a da disciplina. 293
  • 299. 8.11.1 Ajustamento de uma distribui¸˜o discreta ca ´ E curioso notar que a frequˆncia observada da classe i ´ a concretiza¸ao da v.a. e e c˜ Oi ∼ binomial(n, pi ), (8.66) onde n representa o total de observa¸˜es e pi a probabilidade de uma observa¸˜o escolhida co ca ao acaso pertencer a classe i (justifica¸ao!). ` c˜ Caso a hip´tese nula seja simples, somos capazes de calcular o valor da probabilidade pi o sob a validade de H0 , valor esse que ser´ doravante representado por p0 . Somos igualmente a i capazes de calcular o valor esperado de Oi sob H0 , pelo que igualaremos a frequˆncia e esperada sob H0 da classe i, Ei , a este valor esperado. Assim, Ei = E(Oi |H0 ) = E[binomial(n, p0 )] = n × p0 . i i (8.67) Exemplo 8.48 — Teste de ajustamento do qui-quadrado: dados discretos (hip´tese simples — uniforme discreta) o Um dado ´ lan¸ado 1000 vezes tendo conduzido ` tabela de frequˆncias observadas a e c a e seguir. Resultado Freq. Obs. 1 2 3 4 5 6 174 174 154 179 154 165 Coloca-se, naturalmente, a quest˜o: Ser´ o dado equilibrado/perfeito? Resta-nos a a responder a esta quest˜o, considerando para o efeito um n´ a ıvel de significˆncia de, por a exemplo, 5%. • V.a. de interesse X = resultado do lan¸amento do dado c • Hip´teses o H0 : X ∼ uniforme discreta({1, . . . , 6}) vs. H1 : X ∼ uniforme discreta({1, . . . , 6}) 12 12 A hip´tese nula ´ simples dado que em H0 se conjectura uma unica distribui¸˜o completamente o e ´ ca definida. 294
  • 300. Importa notar que, ao considerarmos pi = P (X = i), i = 1, . . . , 6, as hip´teses nula o e alternativa podem reescrever-se do seguinte modo: H0 : pi = p0 = 1/6, i = 1, . . . , 6 vs. i H1 : ∃i : pi = p0 . i • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de Teste k T = (Oi − Ei )2 a ∼H0 χ2 (k−β−1) Ei i=1 (8.68) onde: k = No. de classes em que est˜o organizados os dados da tabela de frequˆncias a e =6 Oi = Frequˆncia absoluta observ´vel da classe i e a Ei = Frequˆncia absoluta esperada, sob H0 , da classe i e = E(Oi |H0 ) = np0 i 13 β = No. de parˆmetros a estimar = 0. a 14 Escusado ser´ dizer que as frequˆncias absolutas esperadas sob H0 ser˜o iguais ao a e a valor esperado de Oi sob H0 . Com efeito, Ei = n × p0 = 1000 × 1/6, i = 1, . . . , 6. i (8.69) De referir que estas frequˆncias s˜o dependentes de i, salvo em rar´ e a ıssimas excep¸˜es co como ´ o caso deste exemplo. O exemplo seguinte ilustrar´ tal facto. e a • Regi˜o de rejei¸˜o de H0 (para valores de T ) a ca Quanto maior a discrepˆncia entre a frequˆncia absoluta observada da classe i (oi ) a e e o valor conhecido da frequˆncia absoluta esperada sob H0 da classe i (Ei ), menos e consistente ´ a hip´tese H0 com os dados recolhidos. Logo a regi˜o de rejei¸ao de e o a c˜ H0 (para valores de T ) ´ um intervalo a direita e ` 13 Estas frequˆncias absolutas esperadas ser˜o igualadas a n × p0 , onde p0 = 1/6 uma vez que estamos e a i i a averiguar o ajustamento da distribui¸˜o uniforme discreta com espa¸o de resultados {1, . . . , 6}. ca c 14 Uma vez que H0 ´ uma hip´tese simples n˜o ´ necess´rio estimar qualquer parˆmetro desconhecido. e o a e a a 295
  • 301. W = (c, +∞), (8.70) onde c : P (Rejeitar H0 |H0 ) −1 c = F χ2 (k−β−1) α0 , i.e., −1 (1 − α0 ) = Fχ2 (1 − 0.05) = 11.07. (8.71) (6−0−1) • Decis˜o a Para calcular o valor observado da estat´ ıstica de teste ´ necess´rio construir e a uma tabela de frequˆncias onde dever˜o constar, entre muitos outros valores, as e a frequˆncias absolutas observadas e os valores conhecidos das frequˆncias absolutas e e esperadas sob H0 . Classe i Freq. abs. observada i oi Freq. abs. esperada sob H0 Ei = n × 1 6 (oi −Ei )2 Ei [174−166.(6)]2 166.(6) 1 {1} 174 2 {2} 174 “ 0.322 3 {3} 154 “ 0.963 4 {4} 179 “ 0.912 5 {5} 154 “ 0.963 “ [165−166.(6)]2 166.(6) 6 {6} 1000 × Parcelas valor obs. estat. teste p0 i 165 k i=1 oi = n = 1000 = 166.(6) k i=1 Ei = n t= = 1000.00 = 0.322 = 0.017 k (oi −Ei )2 Ei i=1 = 3.499 Ent˜o o valor observado da estat´ a ıstica de teste ´ igual a e k (oi − Ei )2 t = Ei i=1 = 0.322 + 0.322 + 0.963 + 0.912 + 0.963 + 0.017 = 3.499 ∈ W = (11.07, +∞). (8.72) Consequentemente n˜o devemos rejeitar a hip´tese de estarmos a lidar com um dado a o equilibrado, ao n.s. 5%, nem a qualquer outro n.s. menor que 5%. • 296
  • 302. Exemplo 8.49 — Teste de ajustamento do qui-quadrado: dados discretos (hip´tese simples — distribui¸˜o de Poisson) o ca O departamento de defesa pretende saber qual a distribui¸ao de probabilidade do n´mero c˜ u de avarias, durante uma dada miss˜o, ocorridas numa determinada zona de um submarino. a Com esse objectivo foram recolhidos dados relativos a 500 destas miss˜es condensados na o tabela abaixo. No. de falhas por miss˜o a 0 No. de miss˜es (com tal no. de falhas) o 1 2 3 4 185 180 95 30 10 Teste ao n´ de significˆncia de 5% a hip´tese de os dados seguirem uma distribui¸ao de ıvel a o c˜ Poisson com valor esperado igual a 1. • V.a. de interesse X = n´mero de falhas em uma miss˜o do submarino u a • Hip´teses o H0 : X ∼ Poisson(1) vs. H1 : X ∼ Poisson(1) 15 • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de Teste k T = (Oi − Ei )2 a ∼H0 χ2 (k−β−1) , Ei i=1 (8.73) onde: k = No. de classes = 5 Oi = Frequˆncia absoluta observ´vel da classe i e a Ei = Frequˆncia absoluta esperada, sob H0 , da classe i e 16 β = No. de parˆmetros a estimar = 0.17 a 15 A hip´tese nula ´ simples j´ que em H0 se conjectura uma unica distribui¸˜o e n˜o uma fam´ de o e a ´ ca a ılia distribui¸˜es como seria o caso de H0 : X ∼ P oisson(λ) onde λ ´ desconhecido. co e 16 Estas frequˆncias ser˜o igualadas a valores de f´cil c´lculo j´ que estamos a averiguar o ajustamento e a a a a da distribui¸˜o de Poisson com valor esperado igual a 1. ca 17 Dado que a distribui¸˜o conjecturada em H0 est´ completamente especificada, i.e., H0 ´ uma hip´tese ca a e o simples. 297
  • 303. • Regi˜o de rejei¸˜o de H0 (para valores de T ) a ca Pelo mesmo motivo apontado no exemplo anterior, a regi˜o de rejei¸ao de H0 escrita a c˜ para valores de T ´ um intervalo a direita W = (c, +∞), onde e ` −1 c = F χ2 (k−β−1) −1 (1 − α0 ) = Fχ2 (1 − 0.05) = 9.488. (8.74) (5−0−1) • Decis˜o a O c´lculo do valor observado da estat´ a ıstica de teste pressup˜e, como anteriormente, o a constru¸ao de uma tabela auxiliar de frequˆncias de v´rio tipo. c˜ e a Classe i Freq. abs. obs. Freq. abs. esper. sob H0 Parcelas valor obs. estat. teste oi Ei = n × p0 i (oi −Ei )2 Ei i (185−183.95)2 183.95 1 {0} 185 500 × 0.3679 = 183.95 2 {1} 180 500 × 0.3679 = 183.95 0.0848 = 0.0060 3 {2} 95 500 × 0.1839 = 91.95 0.1012 4 {3} 30 500 × 0.0613 = 30.65 0.0138 5 {4, 5, . . .} 10 500 × 0.0190 = 9.50 0.0263 k i=1 k i=1 oi = n = 500 Ei = n t= = 500.00 k (oi −Ei )2 Ei i=1 = 0.2321 Note-se que Ei = n × p0 i = n × P (X ∈ Classe i | H0 ) = n × P [X ∈ Classe i | X ∼ P oisson(1)] = n×   P [X = i − 1 | X ∼ P oisson(1)], i = 1, 2, 3, 4  P [X ≥ 4 | X ∼ P oisson(1)], i=5  −λ i−1  e ×λ = n× 1 (i−1)! − (p0 1 e−1 ×1i−1 , (i−1)! . . . p0 ), 4 = + i = 1, 2, 3, 4 i = 5. (8.75) Assim, temos k t = (oi − Ei )2 Ei i=1 = 0.0060 + 0.0848 + 0.1012 + 0.0138 + 0.0263 = 0.2321 ∈ W = (9.488, +∞), (8.76) pelo que n˜o devemos rejeitar a hip´tese de os dados serem provenientes de uma a o popula¸ao com distribui¸˜o de Poisson com parˆmetro conhecido e igual a 1, a c˜ ca a qualquer n´ de significˆncia menor ou igual que 5%. ıvel a • 298
  • 304. 8.11.2 Ajustamento de uma fam´ de distribui¸˜es discretas ılia co ´ E altura de considerar o caso em que se conjectura n˜o uma distribui¸ao espec´ a c˜ ıfica para a nossa v.a. de interesse mas sim um modelo ou fam´ de distribui¸˜es. Basta pensar, ılia co por exemplo, no modelo de Poisson de parˆmetro desconhecido λ . a Tratando-se H0 de uma hip´tese composta, s´ podemos adiantar uma express˜o para o o a 0 n × pi , express˜o essa que depende de parˆmetro(s) desconhecido(s). Assim sendo, n × p0 a a i 18 n˜o pode figurar na express˜o da estat´ a a ıstica de teste, pelo que s´ nos resta considerar o 0 19 que Ei passe a ser um estimador de n × pi . Retomaremos o Exemplo 8.49 por forma a deixar claras as diferen¸as entre os testes c de ajustamento do qui-quadrado com hip´teses nulas simples e composta. o Exemplo 8.50 — Teste de ajustamento do qui-quadrado: dados discretos (hip´tese composta — modelo de Poisson) o Voltemos a considerar o problema do n´mero de avarias durante miss˜es do submarino u o do Exemplo 8.49 e testemos agora a adequa¸˜o do modelo de Poisson — fam´ de todas ca ılia as distribui¸oes de Poisson — a este mesmo conjunto de dados e ao mesmo n´ c˜ ıvel de significˆncia, 5%. a • Hip´teses o H0 : X ∼ Poisson(λ) vs. H1 : X ∼ Poisson(λ) H0 ´ uma hip´tese composta dado que λ ´ uma constante positiva desconhecida. e o e • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de Teste k T = (Oi − Ei )2 a ∼H0 χ2 (k−β−1) . Ei i=1 (8.77) Assinale-se somente o que distingue esta estat´ ıstica de teste daquela que figura em (8.73): Ei = Estimador da frequˆncia absoluta esperada, sob H0 , da classe i e 18 As estat´ ısticas, por defini¸˜o, n˜o podem depender de quaisquer parˆmetros desconhecidos. ca a a Conv´m referir que esta substitui¸˜o conduz a uma altera¸˜o da distribui¸˜o assint´tica da estat´ e ca ca ca o ıstica de teste, caso as estimativas de MV do(s) parˆmetro(s) desconhecido(s) seja(m) calculada(s), como, ali´s, a a ´ costume, com base nos dados originais e n˜o nos dados agrupados em classes. Para mais detalhes e a recomenda-se a leitura de Paulino (1992, pp. 54–56). 19 299
  • 305. β = No. de parˆmetros a estimar = 1.20 a • Estima¸˜o de λ ca A estimativa de MV de λ ´ dada por e ˆ 185 × 0 + 180 × 1 + 95 × 2 + 30 × 3 + 10 × 4 = 1, λ= 500 (8.78) por sinal igual ao valor considerado no Exemplo 8.49. • Regi˜o de rejei¸˜o de H0 (para valores de T ) a ca Desta feita lidamos com o intervalo ` direita W = (c, +∞), onde a −1 c = F χ2 (k−β−1) −1 (1 − α0 ) = Fχ2 (1 − 0.05) = 7.815. (8.79) (5−1−1) • Decis˜o a Como λ ´ desconhecido o mesmo acontece com p0 e com a frequˆncia absoluta e e i esperada, sob H0 , da classe i, n × p0 = n × i  −λ i−1  e ×λ ,  1 (i−1)! − (p0 1 i = 1, 2, 3, 4 + . . . p0 ), i = 5. 4 (8.80) ˆ Mas uma vez que λ = 1 as estimativas das frequˆncias absolutas esperadas sob H0 e s˜o iguais a a ei = n × p0 ˆi  ˆ ˆ  e−λ ×λi−1 = n× 1 (i−1)! − (ˆ0 p1 e−1 ×1i−1 , (i−1)! 0 . . . p4 ), ˆ = + i = 1, 2, 3, 4 i = 5. (8.81) De real¸ar que estes dados foram claramente manipulados por forma a evitar mais c c´lculos na obten¸˜o do habitual quadro usado no c´lculo do valor observado da a ca a estat´ ıstica de teste. Mas atente-se a algumas diferen¸as — subtis ´ certo (identifiquec e as!) — entre este quadro e o do Exemplo 8.49. Posto isto, obtemos o mesmo valor observado da estat´ ıstica de teste: k t= (oi − ei )2 = 0.2321 ∈ W = (7.815, +∞). ei i=1 20 ´ E necess´rio estimar λ para efectuar este teste. a 300 (8.82)
  • 306. Classe i Freq. abs. obs. Estim. freq. abs. esp. sob H0 Parcelas valor obs. estat. teste oi i ei = n × p0 ˆi (oi −ei )2 ei (185−183.95)2 183.95 1 {0} 185 500 × 0.3679 = 183.95 2 {1} 180 500 × 0.3679 = 183.95 0.0848 3 {2} 95 500 × 0.1839 = 91.95 0.1012 4 {3} 30 500 × 0.0613 = 30.65 0.0138 5 {4, 5, . . .} 10 500 × 0.0190 = 9.50 0.0263 k i=1 oi = n = 500 k e i=1 i =n = 500.00 t= = 0.0060 k (oi −ei )2 ei i=1 = 0.2321 Conclui-se ent˜o que a hip´tese dos dados serem provenientes de uma popula¸˜o a o ca com distribui¸ao pertencente ao modelo de Poisson ´ razo´vel a qualquer n´ de c˜ e a ıvel significˆncia menor ou igual a 5%. a • 8.11.3 Agrupamento de classes Uma vez que o teste de ajustamento do qui-quadrado se baseia na convergˆncia em e distribui¸ao de binomiais (Oi ) para normais afigura-se razo´vel exigir que as frequˆncias c˜ a e esperadas sob H0 , Ei , n˜o sejam demasiado pequenas, em particular exigir que sejam a 21 superiores ou iguais a 5. Deste modo, se registarmos, para algum i, • Ei < 5 devemos agrupar esta classe a classe adjacente com menor frequˆncia absoluta esperada ` e sob H0 . N˜o h´, contudo, uma base te´rica para tal regra, havendo mesmo estudos que indicam a a o que pode registar-se uma ou duas frequˆncias esperadas sob H0 inferiores a 5, sem que e seja violada a distribui¸˜o assint´tica, como refere Paulino (1992, p. 52). Com efeito, h´ ca o a autores que sugerem que n˜o h´ a necessidade de qualquer agrupamento de classes se: a a • em pelo menos 80% das classes se verificar Ei ≥ 5 e • nas restantes classes Ei ≥ 1. E ser´ este o crit´rio que usaremos doravante para n˜o agrupar classes. a e a ˜ Recorde-se que: ´ suposto aproximar a v.a. X ∼ binomial(n, p) pela v.a. X ∼ normal(np, np(1 − p)) e quando np > 5 e n(1 − p) > 5; o quadrado de uma normal-padr˜o tem distribui¸˜o do qui-quadrado... a ca 21 301
  • 307. Aproveitaremos um exemplo de Montgomery e Runger (2003, pp. 316–8) para ilustrar n˜o s´ o agrupamento de classes no teste de ajustamento do qui-quadrado mas tamb´m a o e o c´lculo de intervalo aproximado para o p-value no referido teste. A apresenta¸˜o deste a ca exemplo ser´ acompanhada por poucos coment´rios j´ que este exemplo ´ similar ao a a a e Exemplo 8.50. Exemplo 8.51 — Teste de ajustamento do qui-quadrado: dados discretos (hip´tese composta, agrupamento de classes, p-value) o Alguns estudos pr´vios levam a crer que o n´mero de defeitos em circuitos de determinado e u tipo possui uma distribui¸ao de Poisson. Os resultados na tabela seguinte dizem respeito c˜ a uma amostra de 60 circuitos. No. defeitos Freq. Obs. 0 1 2 3 32 15 9 4 Testemos a adequa¸ao do modelo de Poisson a este conjunto de dados calculando para c˜ o efeito um intervalo (aproximado) para o p-value. • V.a. de interesse X = n´mero de defeitos em circuitos de determinado tipo u • Hip´teses o H0 : X ∼ Poisson(λ) vs. H1 : X ∼ Poisson(λ)22 • Estat´ ıstica de Teste k T = (Oi − Ei )2 a ∼H0 χ2 (k−β−1) . Ei i=1 (8.83) • Estima¸˜o de λ ca A estimativa de MV de λ ´ igual a e ˆ 32 × 0 + 15 × 1 + 9 × 2 + 4 × 3 = 0.75. λ= 60 22 H0 ´ uma hip´tese composta dado que λ ´ uma constante positiva desconhecida. e o e 302 (8.84)
  • 308. • Estima¸˜o das probabilidades de perten¸a e das frequˆncias absolutas ca c e esperadas sob H0 As estimativas das probabilidade de perten¸a a cada uma das classes sob H0 s˜o c a dadas por: ˆ ˆ e−λ × λ0 ˆ = 0.472 p0 = P (X = 0|H0 ) = ˆ1 0! ˆ ˆ e−λ × λ1 ˆ p0 = P (X = 1|H0 ) = ˆ2 = 0.354 1! ˆ ˆ e−λ × λ2 ˆ p0 = P (X = 2|H0 ) = ˆ3 = 0.133 2! ˆ p0 = P (X ≥ 3|H0 ) = 1 − (ˆ0 + p0 + p0 ) = 0.041. ˆ4 p1 ˆ2 ˆ3 Consequentemente, obtemos as seguintes estimativas das frequˆncias absolutas e esperadas sob H0 : e1 = n × p0 = 28.32 ˆ1 e2 = n × p0 = 21.24 ˆ2 e3 = n × p0 = 7.98 ˆ3 e4 = n × p0 = 2.46. ˆ4 • Agrupamento de classes e decis˜o a Tendo em conta que a 4a. das 4 classes possui ei < 5 — e como tal menos de 80% das classes possuem ei ≥ 5 — deve proceder-se ao agrupamento da 4a. classe `quela a que ´ a sua unica classe adjacente, a 3a. classe. Passamos a e ´ – dispor de k = 3 classes ({0}, {1}, {2, 3, . . .}) ao inv´s das 4 iniciais e a lidar com o seguinte quadro de frequˆncias: e e Classe i Freq. abs. obs. Estim. freq. abs. esp. sob H0 oi i ei = n × 1 {0} 32 28.32 2 {1} 15 21.24 3 {2, 3, . . .} 9+4 = 13 7.98+2.46 = 10.44 k i=1 oi = n = 60 k e i=1 i = 60 303 Parcelas valor obs. estat. teste (oi −ei )2 ei p0 ˆi =n (32−28.32)2 28.32 (15−21.24)2 21.24 (13−10.44)2 10.44 t= = 0.478 = 1.833 = 0.628 k (oi −ei )2 ei i=1 = 2.939
  • 309. • Intervalo aproximado para o p-value Tratando-se de teste associado a uma regi˜o de rejei¸ao de H0 que ´ um intervalo a a c˜ e ` direita temos: p − value = P (T > t | H0 ) = 1 − FT |H0 (t) 1 − F χ2 (2.939). (3−1−1) (8.85) Recorrendo `s tabelas de quantis da distribui¸ao do qui-quadrado com um grau a c˜ de liberdade podemos obter um intervalo (aproximado) para o p-value deste teste. Para tal basta enquadrar convenientemente t = 2.939 por dois quantis, obtendo-se sucessivamente −1 −1 Fχ2 (0.900) = 2.706 < t = 2.939 < 3.170 = Fχ2 (0.925) (1) (1) 0.900 < F χ2 (1) (2.939) < 0.925 1 − 0.925 < 1 − Fχ2 (2.939) < 1 − 0.900 (1) e por fim o intervalo aproximado para o p-value: (0.075,0.10). Deste modo, concluise que: – n˜o devemos rejeitar H0 a qualquer n.s. α0 ≤ 7.5%; a – rejeitar H0 a qualquer n.s. α0 ≥ 10%. 8.11.4 • Dados cont´ ınuos — hip´tese simples/composta o Para v.a. cont´ ınuas o procedimento de teste ´ an´logo: as observa¸oes devem ser e a c˜ previamente organizadas em classes, i.e., em intervalos disjuntos que cubram todo o contradom´ ınio da v.a. de interesse. Por exemplo, caso estiv´ssemos a testar a adequa¸˜o da distribui¸˜o normal(0,1) as e ca ca classes seriam do tipo: • Classe 1 — (−∞, a1 ] • Classe 2 — (a1 , a2 ] . . . • Classe k — (ak−1 , +∞). 304
  • 310. Exemplo 8.52 — Teste de ajustamento do qui-quadrado: dados cont´ ınuos (hip´tese simples) o Um engenheiro admite que a dura¸˜o de certa marca de lˆmpadas el´ctricas ´ uma ca a e e v.a. com distribui¸ao exponencial de parˆmetro λ = 0.05. Numa experiˆncia laboratorial c˜ a e envolvendo 100 dessas lˆmpadas obtiveram-se as seguintes dura¸oes resumidas abaixo: a c˜ Classe Frequˆncia e [0, 10) [10, 20) [20, 30) [30, +∞) 30 27 23 20 Com base nos dados fornecidos teste a hip´tese considerada pelo engenheiro ao n´ de o ıvel significˆncia de 5%. Obtenha e discuta o intervalo aproximado para o valor–p associado a a amostra considerada.23 ` • Hip´teses o H0 : X ∼ exponencial(0.05) vs. H1 : X ∼ exponencial(0.05) • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de Teste k T = (Oi − Ei )2 a ∼H0 χ2 (k−β−1) , Ei i=1 onde: k = No. de classes = 4 Oi = Frequˆncia absoluta observ´vel da classe i e a Ei = Frequˆncia absoluta esperada, sob H0 , da classe i e β = No. de parˆmetros a estimar = 0. a • Regi˜o de rejei¸˜o de H0 (para valores de T ) a ca ´ E um intervalo ` direita W = (c, +∞), onde a −1 c = F χ2 (k−β−1) 23 −1 (1 − α0 ) = Fχ2 (1 − 0.05) = 7.815. (4−0−1) Adaptado do Exame de 24 de Junho de 2006. 305
  • 311. • Decis˜o a Tirando partido do facto de FX|H0 (x) = P [X ≤ x | exponencial(0.05)] = 1 − e−0.05x , x ≥ 0, conclui-se que as frequˆncias absolutas esperadas sob H0 s˜o iguais a e a p0 = P (0 ≤ X < 10|H0 ) 1 = FX|H0 (10) − FX|H0 (0) = 0.39347 − 0 = 0.39347 p0 = P (10 ≤ X < 20|H0 ) 2 = FX|H0 (20) − FX|H0 (10) = 0.63212 − 0.39347 = 0.23865 p0 = P (20 ≤ X < 30|H0 ) 3 = FX|H0 (30) − FX|H0 (20) = 0.77687 − 0.63212 = 0.14475 p0 = P (X ≥ 30|H0 ) 4 = 1 − FX|H0 (30) = 1 − 0.77687 = 0.22313 Consequentemente, obtemos o seguinte quadro Classe i i Freq. abs. obs. Freq. abs. esper. sob H0 Ei = n × oi Parcelas valor obs. estat. teste (oi −Ei )2 Ei p0 i (30−39.347)2 39.347 1 [0, 10) 30 100 × 0.39347 = 39.347 2 [10, 20) 27 100 × 0.23865 = 23.865 3 [20, 30) 23 100 × 0.14475 = 14.475 5.0208 4 [30, +∞) 20 100 × 0.22313 = 22.313 0.2398 k i=1 oi = n = 100 k i=1 Ei = n = 100.00 = 2.2204 0.4118 t= k (oi −Ei )2 Ei i=1 = 7.8928 e o valor observado da estat´ ıstica de teste ´ igual a e t = 7.8928 ∈ W = (7.815, +∞), pelo que devemos rejeitar a hip´tese de ajustamento da distribui¸˜o de exponencial o ca com parˆmetro 0.05 ao conjunto de dados, a qualquer n´ de significˆncia maior a ıvel a ou igual que 5%. 306
  • 312. • Intervalo aproximado para o p-value Uma vez que a regi˜o de rejei¸ao de H0 ´ um intervalo a direita segue-se: a c˜ e ` p − value = P (T > t | H0 ) = 1 − FT |H0 (t) 1 − F χ2 (7.8928). (4−0−1) Ora, ao recorrer as tabelas de quantis da distribui¸ao do qui-quadrado com trˆs ` c˜ e graus de liberdade podemos obter um intervalo (aproximado) para o p-value deste teste enquadrando convenientemente t = 7.8928 por dois quantis: −1 −1 Fχ2 (0.95) = 7.815 < t = 7.8928 < 9.348 = Fχ2 (0.975) (3) (3) 0.95 < Fχ2 (7.8928) < 0.975 (3) 1 − 0.975 < 1 − Fχ2 (7.8928) < 1 − 0.95. (3) Deste modo conclui-se que o intervalo aproximado para o p-value ´ (0.025,0.05) e e que: – n˜o devemos rejeitar H0 a qualquer n.s. α0 ≤ 2.5%; a – rejeitar H0 a qualquer n.s. α0 ≥ 5%. • Terminamos esta sub-sec¸ao recomendando a leitura do Exemplo 9.13 de Montgomery c˜ e Runger (2003, pp. 318–319) e remetendo o/a leitor/a para a sub-sec¸ao seguinte onde c˜ se encontra um exerc´ com dados cont´ ıcio ınuos. 8.11.5 Classes equiprov´veis e dados cont´ a ınuos Ao lidarmos com dados cont´ ınuos, ´ costume tirar partido do agrupamento efectuado na e an´lise descritiva, usualmente com classes com a mesma amplitude. Este procedimento a pode conduzir ao agrupamento de classes adjacentes. Por forma a evitar este inconveniente e sistematizar a escolha de classes, deve adoptarse o que usualmente se designa por classes equiprov´veis sob H0 , i.e., os extremos das k a classes s˜o escolhidos de forma que a p0 = P (X ∈ Classe i | H0 ) = 1/k, i = 1, . . . , k, i onde k : n × p0 = n/k ≥ 5. Para tal basta que se considere os seguintes extremos: i 307 (8.86)
  • 313. • a0 = limite inferior do contradom´ ınio da distribui¸ao conjecturada em H0 para a c˜ v.a. X; −1 • ai = FX|H0 (i/k) = quantil de probabilidade i/k da distribui¸ao conjecturada em H0 c˜ para a v.a. de interesse X, i = 1, . . . , k − 1; • ak = limite superior do contradom´ ınio da distribui¸˜o conjecturada em H0 para a ca v.a. X. Este procedimento tem ainda a particularidade de simplificar o c´lculo do valor a observado da estat´ ıstica de teste dado que, neste caso, Ei = n/k e, consequentemente, a estat´ ıstica passa a escrever-se k T = = (Oi − n/k)2 n/k i=1 k k 2 O − n. n i=1 i (8.87) Com efeito: k T = (Oi − n/k)2 n/k i=1 = k k n n 2 Oi − 2 Oi + n i=1 k k = k n = k n 2 2 Oi − 2 k n n k Oi + k i=1 i=1 k 2 Oi − 2 n n ×n+k× k k k i=1 k i=1 k = 2 k O2 − 2n + n n i=1 i = 2 k k 2 O − n. n i=1 i 308
  • 314. Exemplo 8.53 — Teste de ajustamento do qui-quadrado: dados cont´ ınuos (hip´tese simples, classes equiprov´veis) o a Com o objectivo de estudar o tempo at´ falha de certo equipamento electr´nico (em e o milhares de horas), X, foram recolhidas e ordenadas 50 observa¸oes na tabela seguinte. c˜ Dada a natureza dos dados e alguns estudos pr´vios, suspeita-se que as observa¸oes sejam e c˜ provenientes de uma popula¸ao X com distribui¸˜o de Pareto com parˆmetros 2.001 e c˜ ca a 2.822, i.e., com f.d. 1− 2.0012.822 , x ≥ 2.001. x2.822 2.001 2.156 2.444 2.720 3.727 2.007 2.161 2.449 2.825 3.769 2.017 2.181 2.478 2.863 3.803 2.026 2.196 2.520 2.867 4.329 2.036 2.214 2.579 3.016 4.420 2.075 2.227 2.581 3.176 4.795 2.077 2.320 2.598 3.360 6.009 2.082 2.367 2.637 3.413 6.281 2.101 2.424 2.691 3.567 6.784 2.137 2.443 2.715 3.721 8.305 (a) Prove que as classes [2.001, 2.1656], (2.1656, 2.3981], (2.3981, 2.7686], (2.7686, 3.5394] e (3.5394, +∞) s˜o equiprov´veis sob a hip´tese a a o H0 : X ∼ P areto(2.001, 2.822). De facto, para i = 1, . . . , k e k = 5: p0 = P (X ∈ [2.001, 2.1656] | H0 ) 1 = FX|H0 (2.1656) − FX|H0 (2.001) 2.0012.822 2.0012.822 − 1− = 1− 2.16562.822 2.0012.822 = 0.2000 1 = k . . . (8.88) (8.89) (b) Averigue a adequa¸ao da distribui¸˜o de Pareto com os referidos parˆmetros ao c˜ ca a conjunto de dados, ao n´ de significˆncia de 10%. ıvel a • Hip´teses o H0 : X ∼ Pareto(2.001, 2.822) vs. H1 : X ∼ Pareto(2.001, 2.822) • N´ ıvel de significˆncia a α0 = 10% 309
  • 315. • Estat´ ıstica de Teste k (Oi − Ei )2 a T = ∼H0 χ2 (k−β−1) , Ei i=1 (8.90) onde: k = No. de classes = 5 Oi = Frequˆncia absoluta observ´vel da classe i e a Ei = Frequˆncia absoluta esperada, sob H0 , da classe i = n/k = 10 e β = No. de parˆmetros a estimar = 0. a • Regi˜o de rejei¸˜o de H0 (para valores de T ) a ca ´ E um intervalo ` direita W = (c, +∞), onde a −1 c = F χ2 (k−β−1) −1 (1 − α0 ) = Fχ2 (1 − 0.1) = 7.779. (8.91) (5−0−1) • Decis˜o a Ao lidarmos com classes equiprov´veis sob H0 basta recorrer a (8.87) para a obter o valor observado da estat´ ıstica de teste. Assim sendo, h´ somente a a necessidade de determinar as frequˆncias absolutas observadas das 5 classes. e Ora, da consulta da tabela com as n = 50 observa¸oes conclui-se que s˜o iguais c˜ a a: 12, 6, 13, 7, 12. Logo k t = = (oi − n/k)2 n/k i=1 k k 2 o −n n i=1 i 5 (122 + 62 + 132 + 72 + 122 ) − 50 50 = 4.2 = ∈ W = (7.779, +∞), (8.92) pelo que n˜o devemos rejeitar a hip´tese de os dados serem provenientes de a o uma popula¸˜o com distribui¸ao de Pareto com parˆmetros 2.001 e 2.822, a ca c˜ a qualquer n´ de significˆncia menor ou igual que 10%. ıvel a • 310
  • 316. 8.12 Teste de independˆncia do qui-quadrado de e Pearson em tabelas de contingˆncia. e Dada a pertinˆncia do teste de independˆncia do qui-quadrado em tabelas de contigˆncia e e e decidimos acrescent´-lo neste cap´ a ıtulo. Limitamo-nos, no entanto, a apresentar um exemplo. Para mais detalhes e considera¸oes te´ricas acerca deste teste de hip´teses,24 c˜ o o remetemos o/a leitor/a mais interessado para Montgomery e Runger (2003, pp. 315-320). Exemplo 8.54 — Teste de independˆncia do qui-quadrado em tabelas de e contingˆncia e Num estudo cl´ ınico seleccionaram-se aleatoriamente n = 1000 indiv´ ıduos que foram classificados segundo o g´nero e a presen¸a ou ausˆncia de daltonismo, obtendo-se os e c e seguintes resultados: Masculino Feminino Dalt´nic@s o 39 6 N˜o Dalt´nic@s a o 461 494 • Par aleat´rio de interesse o Neste exemplo estamos a lidar com uma tabela de contigˆncia e duas v.a. de e interesse. A saber: X = Y =       1 se o indiv´ ıduo for dalt´nico o 2 c.c. (8.93) 1 se o indiv´ ıduo for do g´nero masculino e 2 c.c. (8.94) • Situa¸˜o ca Considere-se, para i = 1, . . . , r e j = 1, . . . , s (r, s = 2): pij = P (X = i, Y = j) desconhecido; pi. = P (X = i) = s j=1 pij desconhecido; p.j = P (Y = j) = r i=1 pij desconhecido. 24 Por sinal tamb´m ele assint´tico e como tal requerendo um n´mero suficientemente grande de e o u observa¸oes. c˜ 311
  • 317. • Hip´teses o H0 : pij = pi. × p.j , i, j = 1, 2 25 vs. H1 : ∃(i, j) : pij = pi. × p.j • N´ ıvel de significˆncia a α0 = 10% • Estat´ ıstica de teste (Oij − Eij )2 Eij i=1 j=1 r s r T = s Oi. ×O.j n Oi. ×O.j n Oij − = i=1 j=1 2 a ∼H0 χ2 (r−1)(s−1) , (8.95) onde, para i = 1, . . . , r e j = 1, . . . , s: Oij = Frequˆncia absoluta observ´vel da c´lula (i, j) da tabela de contingˆncia e a e e Oij ∼ binomial(n, pij ); e a Oi. = s Oij = Frequˆncia absoluta observ´vel da linha i da tabela de j=1 contingˆncia e Oi. ∼ binomial(n, pi. ); O.j = r Oij = Frequˆncia absoluta observ´vel da coluna j da tabela de e a i=1 contingˆncia e O.j ∼ binomial(n, p.j ) Eij = Oi. ×O.j n = Estimador de E(Oij | H0 ).26 • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Quanto maior for a discrepˆncia entre as frequˆncias das c´lulas da tabela de a e e frequˆncias (oij ) e a estimativa da frequˆncia absoluta esperada dessa mesma c´lula e e e sob a validade da hip´tese de independˆncia (oi. × o.j /n), mais inconsistente ser´ H0 o e a com os dados. Logo a regi˜o de rejei¸ao de H0 (para valores da estat´ a c˜ ıstica de teste) ´ um intervalo a direita da distribui¸ao assint´tica de T sob H0 , i.e., W = (c, +∞), e ` c˜ o onde 25 Recorde-se que duas v.a. discretas X e Y s˜o independentes caso a f.p. conjunta de (X, Y ) se escrevear a a ` custa do produtos das f.p. marginais de X e de Y . 26 De notar que E(Oij | H0 ) = E[binomial(n, pij ) | H0 ] = n pi. × p.j , pelo que o estimador natural desta O.j O ×O quantidade ´, efectivamente, n × Oi. × n = i. n .j . e n 312
  • 318. −1 c = F χ2 (r−1)(s−1) −1 (1 − α0 ) = Fχ2 (1 − 0.1) = 2.706. (8.96) (2−1)(2−1) • Decis˜o a Tendo em considera¸ao que c˜ oij Masculino Feminino oi. Dalt´nic@s o 39 6 45 N˜o Dalt´nic@s a o 461 494 955 o.j 500 500 n = 1000 o valor observado da estat´ ıstica de teste ´ igual a e r = = s r t = s (oij − eij )2 eij i=1 j=1 (oij − oi. × o.j /n)2 oi. × o.j /n i=1 j=1 45×500 1000 45×500 1000 39 − + 2 + 955×500 1000 955×500 1000 461 − 45×500 1000 45×500 1000 6− 2 + 2 955×500 1000 955×500 1000 494 − 2 (39 − 22.5)2 (6 − 22.5)2 + = 22.5 22.5 2 (461 − 477.5) (494 − 477.5)2 + + 477.5 477.5 = 25.34 ∈ W = (2.706, +∞). (8.97) A presen¸a de daltonismo num indiv´ c ıduo parece depender do respectivo g´nero a e qualquer n.s. superior ou igual a 10%. • 313
  • 319. 314 H0 : µ1 − µ2 = µ0 H0 : µ1 − µ2 = µ0 2 X1 ∼ normal(µ1 , σ1 ) 2 ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ 2 2 σ1 , σ2 conhecidos ˆ X1 ⊥ X2 , Ecom distribui¸˜es ⊥ co arbitr´rias (n˜o normais): a a 2 E(Xi ) = µi , V (Xi ) = σi , i = 1, 2 2 2 σ1 , σ2 conhecidos n1 , n2 suficientemente grandes H0 : µ = µ0 H0 : µ = µ0 X com distribui¸˜o arbitr´ria ca a (n˜o normal):E(X) = µ, a V (X) = σ 2 σ 2 conhecido n suficientemente grande H0 : µ = µ0 X ∼ normal(µ, σ 2 ) σ 2 desconhecido H0 : µ = µ0 Hip´tese nula o X ∼ normal(µ, σ 2 ) σ 2 conhecido Situa¸˜o ca X com distribui¸˜o arbitr´ria: ca a E(X) = µ, V (X) = σ 2 σ 2 desconhecido n suficientemente grande normal(0, 1) ∼H0 t(n−1) ¯ X−µ0 a √ ∼H0 S/ n ¯ X−µ0 √ S/ n σ2 σ2 1+ 2 n1 n2 ∼H0 normal(0, 1) ∼H0 normal(0, 1) ¯ ¯ (X1 −X2 )−µ0 a σ2 σ2 1+ 2 n1 n2 ¯ ¯ (X1 −X2 )−µ0 normal(0, 1) ∼H0 normal(0, 1) ¯ X−µ0 a √ ∼H0 σ/ n ¯ X−µ0 √ σ/ n Estat´ ıstica de teste (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) Regi˜o de Rejei¸˜o a ca (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) H1 : µ > µ0 H1 : µ < µ0 (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) H1 : µ > µ0 H1 : µ < µ0 (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) −1 (1 − α0 ) (−∞, c), c = −Ft (n−1) (1 − α0 /2) (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : µ = µ0 H1 : µ < µ0 −1 (1 − α0 ) (c, +∞), c = Ft (n−1) H1 : µ > µ0 (n−1) −1 (−∞, −c) ∪ (c, +∞), c = Ft (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : µ = µ0 H1 : µ1 − µ2 > µ0 H1 : µ1 − µ2 < µ0 (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) H1 : µ1 − µ2 > µ0 H1 : µ1 − µ2 < µ0 H1 : µ1 − µ2 = µ0 (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : µ1 − µ2 = µ0 (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : µ = µ0 (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : µ = µ0 Hip´tese alternativa o Quadro-resumo 2a: Alguns testes de hip´teses. o H1 : µ > µ0 H1 : µ < µ0
  • 320. 315 2 H 0 : σ 2 = σ0 X ∼ normal(µ, σ 2 ) µ desconhecido H0 : p = p0 H0 : µ1 − µ2 = µ0 X1 ⊥ 2 com distribui¸˜es arbitr´rias ⊥X co a (possivelmente normais): 2 E(Xi ) = µi , V (Xi ) = σi , i = 1, 2 2 2 σ1 , σ2 desconhecidos mas n˜o necessariamente iguais a n1 > 30 e n2 > 30 X ∼ Bernoulli(p) n suficientemente grande (n > 30) H0 : µ1 − µ2 = µ0 Hip´tese nula o 2 X1 ∼ normal(µ1 , σ1 ) 2 ⊥ X2 ∼ normal(µ2 , σ2 ) ⊥ 2 2 σ1 , σ2 desconhecidos mas IGUAIS n1 ≤ 30 ou n2 ≤ 30 Situa¸˜o ca ¯ X−p0 p0 (1−p0 ) n (n−1)S 2 σ2 0 S2 S2 1+ 2 n1 n2 1 + 1 n1 n2 ∼H0 t(n +n −2) 1 2 a ∼H0 normal(0, 1) ∼H0 χ2 (n−1) ∼H0 normal(0, 1) ¯ ¯ (X1 −X2 )−µ0 a (n1 −1)S 2 +(n2 −1)S 2 2× 1 n1 +n2 −2 ¯ ¯ (X1 −X2 )−µ0 Estat´ ıstica de teste (n1 +n2 −2) (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) > −1 (α0 /2), b = Fχ (1 (n−1) (n−1) −1 (c, +∞), c = Fχ (1 − α0 ) (n−1) −1 (0, c), c = Fχ (α0 ) (n−1) −1 a = Fχ (−∞, −c) ∪ (c, +∞), c = Φ−1 (1 − α0 /2) 2 σ0 2 σ0 (0, a) ∪ (b, +∞), (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : p = p0 H1 : σ 2 < H1 : σ 2 2 H 1 : σ 2 = σ0 (c, +∞), c = Φ−1 (1 − α0 ) (−∞, c), c = −Φ−1 (1 − α0 ) H1 : µ1 − µ2 > µ0 H1 : µ1 − µ2 < µ0 H1 : p > p0 H1 : p < p0 − α0 /2) (1 − α0 /2) H1 : µ1 − µ2 = µ0 (1 − α0 ) (1 − α0 ) (n1 +n2 −2) −1 (−∞, c), c = −Ft H1 : µ1 − µ2 < µ0 (n1 +n2 −2) −1 (c, +∞), c = Ft −1 (−∞, −c) ∪ (c, +∞), c = Ft Regi˜o de Rejei¸˜o a ca H1 : µ1 − µ2 > µ0 H1 : µ1 − µ2 = µ0 Hip´tese alternativa o Quadro-resumo 2b: Alguns testes de hip´teses (cont.). o
  • 321. Cap´ ıtulo 9 Introdu¸˜o ` regress˜o linear simples ca a a 9.1 Modelos de regress˜o. a Motiva¸˜o 9.1 — Modelos de regress˜o ca a Em engenharia ´ frequente estarmos interessados em estabelecer uma rela¸˜o entre e ca • uma vari´vel dependente, Y , e a • uma (ou mais) vari´vel(is) independente(s), x (ou (x1 , . . . , xk )) . a Esta rela¸ao ´, de um modo geral, traduzida por um c˜ e • modelo de regress˜o. a • Exemplo 9.2 — Modelos de regress˜o a Considere as vari´veis a • Y = press˜o atmosf´rica (vari´vel dependente ou resposta) a e a • x = altitude (vari´vel independente ou explicativa ou regressora). a H´ v´rias possibilidades de modelos de regress˜o, entre elas: a a a 1. Modelo determin´ ıstico Y = β0 + β1 x (9.1) 2. Modelo de regress˜o linear simples (RLS) a Y = β0 + β1 x + , onde se assume que (9.2) ´ um erro aleat´rio tal que E( ) = 0. e o 316
  • 322. 3. Modelo de regress˜o linear m´ltipla a u Y = β0 + β1 x1 + β2 x2 + , (9.3) • onde x1 e x2 representam a altitude e a temperatura (resp.). A obten¸ao de informa¸ao no ambito da RLS passa pela recolha de uma amostra de c˜ c˜ ˆ n pontos (xi , yi ), i = 1, . . . , n, (9.4) onde podemos entender que • xi representa o est´ ımulo a que ´ submetido o indiv´ e ıduo i e • yi representa a resposta do indiv´ ıduo i a esse mesmo est´ ımulo. Nota 9.3 — Representa¸˜o gr´fica ca a ´ crucial representar graficamente os pontos (xi , yi ), i = 1, . . . , n, para averiguar se a E rela¸ao entre a vari´vel independente/explicativa x e a vari´vel resposta Y ´ de facto do c˜ a a e tipo linear ou se h´ a necessidade de uma transforma¸˜o dos dados para que tal ocorra. • a ca Exemplo 9.4 — Regress˜o linear simples a Pretende estudar-se a rela¸ao entre a resistˆncia de um determinado tipo de pl´stico (Y ) c˜ e a e o tempo (em horas) que decorre a partir da conclus˜o do processo de moldagem at´ a e ao momento de medi¸ao da resistˆncia (x). Para tal foram testadas 12 pe¸as constru´ c˜ e c ıdas com esse pl´stico e obtidas as seguintes observa¸oes: a c˜ i Tempo (xi ) Resistˆncia (yi ) e 1 2 3 4 5 6 7 8 9 10 11 12 16 199 24 214 32 230 40 248 48 255 48 262 48 279 48 267 56 305 64 298 72 323 80 359 317
  • 323. Apesar de nenhuma curva simples passar exactamente por todos os pontos, h´ forte a indica¸ao no sentido de os pontos do gr´fico se dispersarem aleatoriamente em torno de c˜ a uma recta. • 9.2 M´todos dos m´ e ınimos quadrados e da m´xima a verosimilhan¸a em regress˜o linear simples. c a Comecemos por uma ilustra¸ao e pela defini¸ao informal do modelo de regress˜o linear c˜ c˜ a simples (RLS). Exemplo 9.5 — Regress˜o linear simples a Pretende averiguar-se se a rela¸˜o entre a percentagem de hidrocarbonetos presentes no ca condensador principal de uma unidade de destila¸ao (x) e a pureza do oxig´nio produzido c˜ e (Y ) ´ do tipo linear, tendo sido recolhidas para o efeito as 20 observa¸oes que constam de e c˜ Montgomery e Runger (2003, pp. 373–374): i %Hidrocarbonetos %Pureza i %Hidrocarbonetos %Pureza 1 2 3 4 5 6 7 8 9 10 0.99 1.02 1.15 1.29 1.46 1.36 0.87 1.23 1.55 1.4 90.01 89.05 91.43 93.74 96.73 94.45 87.59 91.77 99.42 93.65 11 12 13 14 15 16 17 18 19 20 1.19 1.15 0.98 1.01 1.11 1.2 1.26 1.32 1.43 0.95 93.54 92.52 90.56 89.54 89.85 90.39 93.25 93.41 94.98 87.33 Tal como no Exemplo 9.4, o gr´fico parece apontar no sentido de os pontos se a dispersarem aleatoriamente em torno de uma recta. • 318
  • 324. Defini¸˜o informal 9.6 — Modelo de RLS ca O modelo de RLS ´ definido por e Yi = β0 + β1 xi + i , i = 1, . . . , n, (9.5) onde: • Yi = resposta aleat´ria do indiv´ o ıduo i (vari´vel dependente aleat´ria) a o • xi = i− observa¸˜o da vari´vel independente1 ca a • β0 = ordenada na origem (constante desconhecida) • β1 = declive (constante desconhecida)2 • i = erro aleat´rio associado a observa¸ao da resposta do indiv´ o ` c˜ ıduo i. • A esta defini¸ao informal ´ necess´rio acrescentar dois sub-conjuntos de hip´teses de c˜ e a o trabalho fundamentais quer para a estima¸ao pontual, quer para outro tipo de inferˆncias c˜ e sobre os parˆmetros do modelo tais como a ordenada na origem e o declive. a Nota 9.7 — Hip´teses de trabalho do modelo de RLS o ´ E costume assumir que os erros aleat´rios o • i s˜o v.a. n˜o correlacionadas3 tais que a a E( i ) = 0 V ( i ) = σ 2 (constante desconhecida). • Nota 9.8 — Consequˆncias e ` luz destas hip´teses de trabalho e da equa¸ao do modelo de RLS (9.5) segue-se, para A o c˜ i = 1, . . . , n: • E(Yi ) = β0 + β1 xi + E( i ) = β0 + β1 xi • V (Yi ) = V ( i ) = σ 2 . • 1´ E habitual assumir que se trata de vari´vel n˜o aleat´ria — ou por tomar valor fixo, ou por tratar-se a a o de medi¸˜o sem erro ou com erro desprez´el ca v 2 Na verdade β0 e β1 s˜o a ordenada na origem e o declive do valor esperado da resposta, a respectivamente (ver nota 9.8). 3 I.e., corr( i , j ) = 0, i = j. 319
  • 325. 9.2.1 Estima¸˜o de β0 e β1 — m´todo dos m´ ca e ınimos quadrados O ponto de partida para a estima¸˜o pontual dos parˆmetros β0 e β1 ´ o conjunto de ca a e dados: • (xi , yi ), i = 1, . . . , n. Motiva¸˜o 9.9 — M´todo dos m´ ca e ınimos quadrados A obten¸ao das estimativas dos m´ c˜ ınimos quadrados de β0 e β1 passa pela minimiza¸˜o ca das discrepˆncias entre o que ´ “esperado” pelo modelo de RLS — E(Yi ) = β0 + β1 xi — a e e o que ´ efectivamente observado — yi . (Esquema...) e Com efeito, pretendemos encontrar estimativas que minimizem a soma dos quadrados dos desvios verticais entre yi e β0 + β1 xi , soma essa igual a n [yi − (β0 + β1 xi )]2 . Q= (9.6) i=1 • Proposi¸˜o 9.10 — Estimativas de m´ ca ınimos quadrados ˆ ˆ As estimativas de m´ ınimos quadrados de β0 e β1 — representadas doravante por β0 e β1 — s˜o a solu¸˜o do seguinte sistema de duas equa¸oes lineares: a ca c˜   ∂Q  ˆ ˆ (β0 , β1 ) :   ∂β0 β0 =β0 ,β1 =β1 ˆ ˆ ∂Q ∂β1 β0 =β0 ,β1 =β1 ˆ ˆ = 0 (9.7) = 0 i.e. ˆ β0 = y − β1 x ¯ ˆ¯ n ¯¯ i=1 xi yi − n x y ˆ β1 = . n 2 ¯2 i=1 xi − n x (9.8) (9.9) • Proposi¸˜o 9.11 — Estimadores de m´ ca ınimos quadrados ˆ Os estimadores de m´ ınimos quadrados de β0 e β1 ser˜o igualmente representados por β0 a ˆ e β1 ,4 encontram-se no formul´rio da disciplina e s˜o dados por: a a ˆ ˆ¯ ¯ β0 =f orm Y − β1 x ˆ ˆ β1 =f orm β1 = n ¯¯ i=1 xi Yi − n x Y n 2 ¯2 i=1 xi − n x (9.10) . (9.11) • 4 Neste cap´ ıtulo n˜o faremos a destrin¸a entre estimador e estimativa, em termos notacionais, por mera a c conveniˆncia. e 320
  • 326. Nota 9.12 — Estimativas de m´ ınimos quadrados • O sistema (9.7) ´ equivalente a e ˆ ˆ (β0 , β1 ) :   −2  −2 n i=1 [yi − n i=1 xi [yi ˆ ˆ (β0 + β1 xi )] = 0 ˆ0 + β1 xi )] = 0 ˆ − (β   ˆ ˆ n β0 + β1 n xi i=1  β0 n xi + β1 ˆ ˆ i=1 n i=1 x2 i = = n i=1 yi n i=1 xi yi (9.13) x2 i = = n i=1 yi n i=1 xi yi (9.14)   ˆ ˆ n β0 + β1 n xi i=1  β0 n xi + β1 ˆ ˆ i=1 n i=1   ˆ β0  (¯ − β1 x) y ˆ¯   ˆ β0  β1 ( ˆ n i=1 (9.12) ˆ xi + β1 = n 2 ¯2 i=1 xi − n x ) = n i=1 x2 i = = y − β1 x ¯ ˆ¯ n i=1 xi yi y − β1 x ¯ ˆ¯ n ¯¯ i=1 xi yi − n x y . (9.15) (9.16) • Conv´m real¸ar que o sistema (9.7) possui solu¸ao sse e c c˜ n x2 − n x2 = 0, ¯ i (9.17) i=1 i.e., sse na amostra existirem pelo menos dois valores distintos da vari´vel explicativa a x. • Acrescente-se ainda que pode mostrar-se que a matriz hessiana de Q ´ semi-definida e positiva, pelo que, caso exista solu¸˜o (β0 , β1 ), ela corresponder´ a um m´ ca ˆ ˆ a ınimo. ˆ ˆ • As diferen¸as ei = yi −(β0 + β1 xi ) s˜o denominadas de res´ c a ıduos. E ser´ ` custa destes aa res´ ıduos que obteremos uma estimativa da variˆncia σ 2 . A sua an´lise (emp´ a a ırica) permitir´ avaliar a adequa¸˜o do modelo de RLS e ser´ abordada na ultima sec¸ao a ca a ´ c˜ deste cap´ ıtulo. • ˆ Nota 9.13 — F´rmula alternativa de β1 o ˆ ´ E frequente encontrar a seguinte f´rmula alternativa de β1 na literatura. Esta f´rmula ´, o o e por sinal, menos pr´tica que a da Proposi¸ao 9.10 e ´ dada por: a c˜ e n ¯ i=1 (xi − x)(yi − n ¯2 i=1 (xi − x) y) ¯ . (9.18) • 321
  • 327. Exemplo 9.14 — Estimativas de m´ ınimos quadrados O custo de manuten¸˜o (em euros) de tractores parece aumentar com a idade (em anos) ca do tractor. Para verificar esta suposi¸ao, obtiveram-se os seguintes dados: c˜ i 1 2 3 4 5 6 7 8 9 Idade (em anos) 0.5 0.5 1.0 1.0 1.0 4.0 4.0 4.0 4.5 Custo (em euros) 163 182 978 466 549 495 723 681 619 i 10 11 12 13 14 15 16 17 Idade (em anos) 4.5 4.5 5.0 5.0 5.0 5.5 6.0 6.0 1049 1033 890 1522 1194 987 764 1373 Custo (em euros) Considerando um modelo de RLS, obtenha e interprete as estimativas de m´ ınimos quadrados de β0 e β1 . • Estimativas de m´ ınimos quadrados Tirando partido das express˜es das estimativas de m´ o ınimos quadrados de β0 e β1 e do facto de n = 17 e de n i=1 xi = 62 x = 3.647058824 ¯ n i=1 x2 = 289.5 i n i=1 x2 − n x2 = 63.38235294 ¯ i n i=1 yi = 13668 y = 804 ¯ n i=1 2 yi = 13294114 n i=1 2 yi − n y 2 = 2305042 ¯ n i=1 xi yi = 58196.5 n i=1 xi yi − n x y = 8348.5, ¯¯ 5 obt´m-se: e 5 Embora estas quantidades sejam desnecess´rias no curso deste exemplo, o seu c´lculo ´ mais que a a e n n 2 2 2 recomend´vel j´ que o valor de i=1 yi e muito em particular o de i=1 yi − n y ´ usado em outros a a ¯ e tipos de inferˆncias que faremos sobre os parˆmetros do modelo. e a 322
  • 328. ˆ β1 = n ¯¯ i=1 xi yi − n x y n 2 ¯2 i=1 xi − n x 58196.5 − 17 × 3.647058824 × 804 289.5 − 17 × 3.6470588242 8348.5 = 63.38235294 = 131.7164733 (Euro/ano) = (9.19) ˆ β0 = y − β1 x ¯ ˆ¯ = 804 − 131.7164733 × 3.647058824 = 323.6222738 (Euro). (9.20) • Interpreta¸˜o das estimativas de m´ ca ınimos quadrados ˆ β0 323.6 Estima-se que o valor esperado do custo de manuten¸ao de um tractor novo (com c˜ idade igual a 0 anos) seja de aproximadamente 323.6 Euros. ˆ β1 131.72 Por cada ano que passa, o valor esperado do custo de manuten¸ao aumenta c˜ aproximadamente 131.72 Euros. • Nota 9.15 — Estimativas de m´ ınimos quadrados Recomenda-se o uso do m´ximo de algarismos poss´ a ıveis nos passos interm´dios e obten¸ao das estimativas de m´ c˜ ınimos quadrados, por forma a evitar a acumula¸ao c˜ erros de arredondamento. Recomenda-se tamb´m que os arredondamentos s´ sejam efectuados aquando e o apresenta¸˜o dos valores das referidas estimativas. ca 323 da de da •
  • 329. 9.2.2 Estima¸˜o de β0 e β1 — m´todo da MV ca e Para obter as estimativas de MV de β0 e β1 ´ necess´rio hip´teses de trabalho adicionais e a o que dizem mais uma vez respeito aos erros aleat´rios. Estas hip´teses de trabalho o o adicionais possuem implica¸˜es distribuicionais que nos permitir˜o efectuar inferˆncias co a e de v´rio tipo, nomeadamente, obter intervalos de confian¸a e efectuar testes de hip´teses a c o sobre β0 e β1 e outros parˆmetros de interesse. a Nota 9.16 — Hip´teses de trabalho adicionais do modelo de RLS o Adicionalmente, assuma-se que i ∼i.i.d. normal(0, σ 2 ), i = 1, . . . , n. (9.21) • Nota 9.17 — Consequˆncias e Ao lidar com erros aleat´rios i i.i.d. e normalmente distribu´ o ıdos conclui-se que as seguintes fun¸oes afim destes erros c˜ Yi = β0 + β1 xi + i ∼indep normal(β0 + β1 xi , σ 2 ), i = 1, . . . , n, (9.22) i.e., fYi |β0 ,β1 (yi ) = (2πσ 2 )−1/2 exp − 1 [yi − (β0 + β1 xi )]2 , i = 1, . . . , n. 2 2σ (9.23) • Proposi¸˜o 9.18 — Estimativas de MV ca Pode adiantar-se que as estimativas de MV de β0 e β1 coincidem com as estimativas de ˆ m´ ınimos quadrados deste par de parˆmetros. Assim, n˜o s´ s˜o representadas por β0 e a a o a ˆ β1 , como s˜o iguais a a ˆ β0 = y − β1 x ¯ ˆ¯ n ¯¯ i=1 xi yi − n x y ˆ1 = β . n 2 ¯2 i=1 xi − n x (9.24) (9.25) • Nota 9.19 — Dedu¸˜o das estimativas de MV ca • Fun¸˜o de verosimilhan¸a ca c A fun¸˜o de verosimilhan¸a ´ dada por ca c e 324
  • 330. n L(β0 , β1 |y) = fYi |β0 ,β1 (yi ) i=1 n (2πσ 2 )−1/2 exp − = i=1 = (2πσ 2 )−n/2 exp − 1 [yi − (β0 + β1 xi )]2 2 2σ 1 2σ 2 n [yi − (β0 + β1 xi )]2 . (9.26) i=1 • Log-verosimilhan¸a c Por seu lado o logaritmo da fun¸˜o de verosimilhan¸a ´ ca c e n 1 1 [yi − (β0 + β1 xi )]2 ln L(β0 , β1 |y) = − ln(2πσ 2 ) − 2 2 2σ i=1 1 1 = − ln(2πσ 2 ) − 2 Q, 2 2σ (9.27) onde, recorde-se, Q ´ definido por (9.6). e • Maximiza¸˜o ca c˜ c˜ Tratando-se ln L(β0 , β1 |y) de uma fun¸ao proporcional a −Q, a sua maximiza¸ao no que diz respeito a β0 e β1 ´ equivalente ` minimiza¸˜o de Q que conduziu, como se e a ca sabe, as estimativas seguintes: ` ˆ β0 = y − β1 x ¯ ˆ¯ n ¯¯ i=1 xi yi − n x y ˆ β1 = . n 2 ¯2 i=1 xi − n x (9.28) (9.29) • Nota 9.20 — Nota¸˜o alternativa ca Em alguns livros de texto pode encontrar-se a seguinte nota¸˜o: ca n (xi − x)2 ¯ SXX = i=1 n x2 − n x2 ¯ i = (9.30) i=1 n SXY (xi − x)(yi − y ) ¯ ¯ = i=1 n xi (yi − y ) ¯ = i=1 n yi (xi − x) ¯ = i=1 n xi yi − n xy . ¯¯ = (9.31) i=1 325
  • 331. Posto isto, SXY ˆ β0 = y − ¯ x ¯ SXX SXY ˆ β1 = . SXX (9.32) (9.33) • 9.2.3 Recta de regress˜o a ´ E usual estimar o valor esperado da resposta associada a um valor arbitr´rio x da vari´vel a a explicativa. A estimativa pontual de E(Y |x) = β0 + β1 x ´ igual a e ˆ y = E(Y |x) ˆ ˆ ˆ = β0 + β1 x (9.34) e ´ habitual dar-se-lhe o nome de “fitted value”. e A recta definida por ˆ ˆ β0 + β1 x, para x ∈ [x(1) , x(n) ] (onde x(1) = mini=1,...,n xi e x(n) = maxi=1,...,n xi ), ´ usualmente designada de recta de e regress˜o, recta estimada ou recta ajustada. a Exemplo 9.21 — Recta de regress˜o a Retome o Exemplo 9.4 (resistˆncia do pl´stico) e obtenha uma estimativa para o valor e a esperado da resistˆncia de uma pe¸a de pl´stico que seja testada 20 horas ap´s a sua e c a o moldagem. • Estimativas de β0 e β1 Note-se que n = 12 e n i=1 xi = 576 x = 48 ¯ n i=1 n i=1 x2 = 31488 i n i=1 yi = 3239 x2 − n x2 = 3840 ¯ i y = 269.9166667 ¯ n i=1 n i=1 2 yi = 897639 2 yi − n y 2 = 23378.91667 ¯ 326
  • 332. n i=1 xi yi = 164752 n i=1 xi yi − n x y = 9280. ¯¯ Logo ˆ β1 = n ¯¯ i=1 xi yi − n x y n 2 ¯2 i=1 xi − n x 164752 − 12 × 48 × 269.9166667 31488 − 12 × 482 9280 = 3840 = 2.416666667 = (9.35) ˆ β0 = y − β1 x ¯ ˆ¯ = 269.9166667 − 2.416666667 × 48 = 153.9166667 (9.36) • Recta de regress˜o a A estimativa do valor esperado da resistˆncia de uma pe¸a de pl´stico que seja e c a testada x horas ap´s a sua moldagem ´ igual a o e ˆ y = E(Y |x) ˆ ˆ ˆ = β0 + β1 × x = 153.9166667 + 2.416666667 × x. (9.37) ´ E esta a equa¸ao da recta de regress˜o. Ora, para x = 20, obt´m-se c˜ a e ˆ E(Y |x = 20) = 153.9166667 + 2.416666667 × 20 = 202.25. (9.38) • Exerc´ ıcio 9.22 — Recta de regress˜o a Trace a recta de regress˜o sobre o gr´fico do Exemplo 9.4 (resistˆncia do pl´stico) e a a e a ˆ0 + β1 xi )) ` sua escolha. ˆ obtenha alguns res´ ıduos (ei = yi − (β a • 327
  • 333. 9.3 Propriedades dos estimadores dos m´ ınimos quadrados e estima¸˜o da variˆncia. ca a ´ E poss´ adiantar o valor esperado e a variˆncia dos estimadores de m´ ıvel a ınimos quadrados de β0 e β1 , bem como a covariˆncia entre estes dois estimadores. a Proposi¸˜o 9.23 — Propriedades dos estimadores dos m´ ca ınimos quadrados Parˆmetro a Estimador Valor esperado β0 ˆ ˆ ¯ ¯ β0 = Y − β1 x Variˆncia a σ2 × β0 1 n + n i=1 n ˆ β1 = β1 i=1 n xi Yi −n x Y ¯¯ i=1 2 β1 x2 −n x2 ¯ i x2 ¯ x2 −n x2 ¯ i n i=1 σ x2 −n x2 ¯ i ˆ ˆ cov(β0 , β1 ) = − n σ 2 x2 ¯ x2 −n x2 ¯ i i=1 Conv´m salientar que: e ˆ ˆ a • β0 e β1 s˜o estimadores centrados de β0 e β1 ; ˆ ˆ a • β0 e β1 s˜o v.a. dependentes correlacionadas negativamente.6 • Motiva¸˜o 9.24 — Estima¸˜o de σ 2 ca ca Para al´m de β0 e β1 ´ necess´rio estimar um outro parˆmetro desconhecido: e e a a • V ( i ) = V (Yi ) = σ 2 . • Tal como se teve ocasi˜o de referir a estimativa de σ 2 obt´m-se a custa dos res´ a e ` ıduos, tal como podemos ver na proposi¸ao que se segue. c˜ Proposi¸˜o 9.25 — Estimativa de σ 2 ca A estimativa de σ 2 representar-se-´ por σ 2 e ´ igual a a ˆ e σ2 = ˆ = n 1 (yi − yi )2 ˆ n − 2 i=1 n 1 ˆ ˆ [yi − (β0 + β1 × xi )]2 n − 2 i=1 1 = n−2 6 n 2 yi 2 − ny ¯ ˆ − (β1 )2 i=1 n x2 − n x2 ¯ i , (9.39) i=1 ˆ ˆ ˆ Este facto ´ ´bvio j´ que β0 depende de β1 atrav´s de uma sua fun¸˜o decrescente, β0 = y − β1 x. eo a e ca ¯ ˆ ¯ 328
  • 334. sendo que a ultima express˜o ´ a mais conveniente para o c´lculo desta estimativa j´ que ´ a e a a ˆ0 e β1 . • ˆ tira partido de quantidades previamente obtidas aquando da determina¸˜o de β ca Proposi¸˜o 9.26 — Estimador de σ 2 e uma sua propriedade ca O estimador de σ 2 consta do formul´rio e ´ definido por a e σ 2 =f orm ˆ n 1 n−2 n ˆ ¯ Yi2 − n Y 2 − (β1 )2 x2 − n x 2 ¯ i i=1 , (9.40) i=1 Refira-se tamb´m que se trata de um estimador centrado de σ 2 .7 e • Exemplo 9.27 — Estimativa de σ 2 Retome mais uma vez o Exemplo 9.4 (resistˆncia do pl´stico) e obtenha a estimativa da e a variˆncia da resistˆncia. a e A estimativa de σ 2 ´, neste caso, igual a e 1 n−2 1 = 12 − 2 n 2 ˆ yi − n y 2 − (β1 )2 ¯ σ2 = ˆ i=1 n x2 − n x2 ¯ i i=1 897639 − 12 × 269.91666672 −2.4166666672 × 31488 − 12 × 482 1 23378.91667 − 2.4166666672 × 3840 12 − 2 = 95.225. = (9.41) • Exerc´ ıcio 9.28 — Estimativas das variˆncias dos estimadores de β0 e β1 a Retome o Exemplo 9.27 e obtenha estimativas das variˆncias dos estimadores de β0 e β1 , a 2 1 x2 ¯ 2 • i.e., determine estimativas de σ × n + n x2 −n x2 e de n σ 2 −n x2 , resp. ¯ x ¯ i=1 7 i i=1 i Embora n˜o se trate do estimador de MV de σ 2 sob a hip´tese de trabalho de erros aleat´rios a o o i.i.d. normalmente distribu´ ıdos. Mais uma vez representamos do mesmo modo quer a estimativa, quer o estimador de um parˆmetro a 2 desconhecido, neste caso σ . 329
  • 335. 9.4 Alguns abusos do modelo de regress˜o. a Escusado ser´ dizer que a tenta¸˜o de estabelecer uma rela¸ao entre uma vari´vel resposta a ca c˜ a e uma ou mais vari´veis explicativas e de estimar o valor esperado da resposta para valores a arbitr´rios da vari´vel explicativa pode conduzir a abusos na utiliza¸˜o de modelos de a a ca regress˜o. Entre eles destacar´ a ıamos dois. A saber: • Escolha incorrecta das vari´veis explicativas a Uma escolha incorrecta das vari´veis explicativas poder levar a conclus˜es absurdas a o j´ que uma associa¸ao estat´ a c˜ ıstica n˜o implica necessariamente uma rela¸˜o de causa a ca e efeito. • Erro de extrapola¸˜o ca A rela¸ao traduzida pelo modelo de RLS s´ ´ v´lida para a gama de valores c˜ o e a observados da vari´vel explicativa x, a [x(1) , x(n) ], onde, recorde-se, x(1) = mini=1,...,n xi e x(n) = maxi=1,...,n xi . Caso se obtenha um “fitted value” ˆ y = β0 + β1 x, para x ∈ [x(1) , x(n) ], ˆ ˆ estamos a cometer aquilo que se designa por erro de extrapola¸˜o. ca (Esquema...) Exemplo 9.29 — Erro de extrapola¸˜o ca Tendo em vista o teste de uma nova solu¸ao de insulina foram administradas 3 doses c˜ diferentes dessa mesma solu¸ao a coelhos e registadas as quedas na quantidade de a¸ucar c˜ c´ no sangue depois de um per´ ıodo fixo de tempo. As observa¸˜es referentes ao “logaritmo da dose” (x) e a “queda da quantidade de co ` a¸ucar no sangue” (Y ) encontram-se na tabela abaixo. c´ i LnDose (xi ) Queda a¸ucar (yi ) c´ 1 2 3 4 5 6 7 8 9 10 11 12 0.36 0.36 0.36 0.36 0.56 0.56 0.56 0.56 0.76 0.76 0.76 0.76 17 21 49 54 64 48 34 63 62 72 61 91 330
  • 336. (a) Obtenha a recta de regress˜o e uma estimativa do valor esperado da queda da a quantidade de a¸ucar no sangue quando o logaritmo da dose ´ unit´rio, tendo em c´ e a n n n n 2 2 conta que i=1 xi = 6.72, i=1 xi = 4.0832, i=1 yi = 636, i=1 yi = 38602 e n i=1 xi yi = 385.16. Se por um lado o “logaritmo da dose” administrada n˜o ´ uma v.a. (por ser a e perfeitamente control´vel), por outro lado a resposta, “queda da quantidade de a a¸ucar no sangue”, ´ claramente uma v.a. Ent˜o, faz sentido recorrer ` partida ao c´ e a a modelo de RLS. • Recta de regress˜o a Dado que x = ¯ ˆ β1 = 6.72 = 0.56 e y = 636 ¯ 12 12 n ¯¯ i=1 xi yi − n x y n 2 ¯2 i=1 xi − n x = 53 as estimativas de β0 e β1 s˜o iguais a: a 385.16 − 12 × 0.56 × 53 4.0832 − 12 × 0.562 29 = 0.32 = 90.625 = (9.42) ˆ β0 = y − β1 x ¯ ˆ¯ = 53 − 90.625 × 0.56 = 2.25. (9.43) Logo a recta de regress˜o ´ dada por: a e ˆ y = E(Y |x) ˆ ˆ ˆ = β0 + β1 × x = 2.25 + 90.625 × x. (9.44) • Estimativa de E(Y |x = 1) A estimativa do valor esperado da queda da quantidade de a¸ucar no sangue c´ quando o logaritmo da dose ´ unit´rio ´ y = 2.25 + 90.625 × 1 = 92.875. Notee a eˆ se, no entanto, que esta estimativa foi obtida por extrapolacao uma vez ¸˜ que a gama de valores da vari´vel explicativa ´ [0.36, 0.76]. a e Assim, esta estimativa deve ser usada com cautela. 331
  • 337. (b) Calcule o logaritmo da dose a administrar de forma a obter uma estimativa do valor esperado da queda da quantidade de a¸ucar no sangue igual a 70. c´ • Obten¸˜o da dose a administrar ca ˆ Pretende-se a abcissa x tal que E(Y |x) = 70. Ora, ˆ 70 − β0 70 − 2.25 ˆ ˆ β0 + β1 × x = 70 ⇔ x = ⇔x= ⇔ x = 0.7476 (9.45) ˆ 90.625 β1 ´ o logaritmo da dose a administrar de modo a obter queda esperada da e quantidade de a¸ucar no sangue igual a 70. c´ • 332
  • 338. 9.5 Intervalos de confian¸a para β0, β1 e para o valor c esperado da resposta. Motiva¸˜o 9.30 — Intervalos de confian¸a para β0 , β1 e E(Y |x0 ) = β0 + β1 x0 ca c Para al´m das estimativas pontuais, ´ de extrema utilidade adiantar intervalos de valores e e razo´veis para os parˆmetros desconhecidos β0 e β1 , bem como para o valor esperado da a a resposta quando a vari´vel explicativa toma o valor x0 , a • E(Y |x0 ) = β0 + β1 x0 . • Para construir intervalos de confian¸a (e j´ agora efectuar testes de hip´teses) para c a o β0 e β1 ou outros parˆmetros de interesse no ambito do modelo de RLS ´ crucial assumir a ˆ e que i ∼i.i.d. normal(0, σ 2 ), i = 1, . . . , n, (9.46) j´ que nessa situa¸˜o obtemos os seguintes resultados distribuicionais. a ca Proposi¸˜o 9.31 — Distribui¸˜o dos estimadores de MV de β0 , β1 e β0 + β1 x0 ca ca Sob a validade de (9.46) temos Yi ∼indep normal(β0 + β1 xi , σ 2 ), i = 1, . . . , n, donde: Parˆmetro a Estimador Distribui¸˜o ca β0 ˆ β0 normal β0 , σ 2 × 1 n + n i=1 ˆ β1 β1 normal β1 , n i=1 ˆ ˆ β0 + β1 x 0 β0 + β1 x 0 x2 ¯ x2 −n x2 ¯ i σ2 x2 −n x2 ¯ i normal β0 + β1 x0 , σ 2 × 1 n + (x0 −¯)2 x x2 −n x2 ¯ i n i=1 • Proposi¸˜o 9.32 — V.a. fulcral para σ 2 ca Tamb´m sob a validade de (9.46) temos: e Parˆmetro a V.a. fulcral para σ 2 Distribui¸˜o ca σ2 (n−2) σ 2 ˆ σ2 χ2 (n−2) • 333
  • 339. ˆ ˆ ´ E exactamente por β0 e β1 terem distribui¸˜es normais e serem independentes da co 2 v.a. fulcral para σ que seremos capazes de adiantar v.a. fulcrais para β0 , β1 e E(Y |x0 ) = ˆ2 β0 + β1 x0 . Elas possuem, em qualquer dos casos, distribui¸ao t−Student j´ que (n−2) σ c˜ a σ2 tem distribui¸ao do qui-quadrado. c˜ Com efeito, ao reduzir os trˆs estimadores da Proposi¸ao 9.31 e ao substituir σ 2 pelo e c˜ seu estimador, obtemos as seguintes v.a. fulcrais que, por sinal, tamb´m constam do e formul´rio. As concretiza¸˜es dos intervalos aleat´rios de confian¸a foram acrescentadas a co o c a tabela seguinte e obtˆm-se sem grande dificuldade. ` e Proposi¸˜o 9.33 — V.a. fulcrais para β0 , β1 e β0 + β1 x0 ca Os IC para estes trˆs parˆmetros de interesse obtˆm-se, sob a validade de e a e 2 normal(0, σ ), i = 1, . . . , n, ` custa das seguintes v.a. fulcrais: a Parˆmetro a V.a. fulcral σ2 × ˆ ∼i.i.d. IC(1−α)×100% ˆ β0 −β0 β0 i 1+ n n −1 ˆ β0 ± Ft (1 − α/2) × σ2 × ˆ −1 ˆ β1 ± Ft ∼ t(n−2) (1 − α/2) × x2 ¯ x2 −n x2 ¯ i=1 i n (n−2) 1 n + x2 ¯ x2 −n x2 ¯ i n i=1 ˆ β1 −β1 σ2 ˆ n x2 −n x2 ¯ i=1 i β1 β0 + β1 x0 ∼ t(n−2) ˆ ˆ (β0 +β1 x0 )−(β0 +β1 x0 ) σ2 × ˆ 1+ n (n−2) ∼ t(n−2) −1 ˆ ˆ (β0 + β1 x0 ) ± Ft (n−2) (x0 −¯)2 x n x2 −n x2 ¯ i=1 i σ2 ˆ x2 −n x2 ¯ i=1 i (1 − α/2) × σ2 × ˆ 1 n + (x0 −¯)2 x n x2 −n x2 ¯ i=1 i • Nota 9.34 — Intervalos de confian¸a para β0 , β1 e E(Y |x0 ) = β0 + β1 x0 c • Estes trˆs intervalos de confian¸a s˜o do tipo e c a estimativa centrada do parˆmetro a √ ±quantil × estimativa da variˆncia do estimador do parˆmetro. a a • A amplitude de IC(1−α)×100% (β0 + β1 x0 ) aumenta ` medida que nos afastamos de a x (i.e., torna-se menos precisa), reflectindo, assim, os “perigos” da extrapola¸˜o. ¯ ca (Esquema...) • 334
  • 340. Exemplo 9.35 — Intervalo de confian¸a para E(Y |x) = β0 + β1 x0 c Um astr´nomo resolveu estudar a rela¸ao entre a distˆncia e a velocidade de recess˜o o c˜ a a entre nebulosas. Com esse objectivo registou para 24 nebulosas as distˆncias a partir da a terra (x, em megaparsecs) e as respectivas velocidades de recess˜o (y, em Km/s), tendo a obtido 24 i=1 24 i=1 xi = 21.873, xi yi = 12513.7 24 i=1 24 i=1 yi = 8955, x2 = 29.5178, i 24 i=1 2 yi = 6511425, e min(x1 , . . . , x24 ) = 0.032 e max(x1 , . . . , x24 ) = 2.8 Obtenha um intervalo de confian¸a a 90% para o valor esperado da velocidade de recess˜o c a de uma nebulosa a uma distˆncia da terra de 0.55 megaparsecs, assumindo que o modelo a de RLS ´ apropriado.9 e • Estimativas de MV Assumindo que n i=1 i ∼i.i.d. normal(0, σ 2 ), i = 1, . . . , n, e tirando partido do facto de xi = 21.873 x = 0.911375 ¯ n i=1 n i=1 x2 = 29.5178 i n i=1 yi = 8955 ¯ x2 − n x2 = 9.583294625 i y = 373.125 ¯ n i=1 n i=1 2 yi = 6511425 n i=1 n i=1 xi yi = 12513.7, 2 ¯ yi − n y 2 = 3170090.625 xi yi − n x y = 4352.336875, ¯¯ obt´m-se e ˆ β1 = n ¯¯ i=1 xi yi − n x y n 2 ¯2 i=1 xi − n x 4352.336875 9.583294625 = 454.1587 = 8 9 (9.47) 1 parsec = 3.26 anos luz. Adaptado do Exame de 24 de Junho de 2004. 335
  • 341. ˆ β0 = y − β1 x ¯ ˆ¯ = 373.125 − 454.1587 × 0.911375 = −40.7839. (9.48) • Estimativa de MV de E(Y |x0 = 0.55) ´ E igual a ˆ ˆ ˆ E(Y |x0 ) = β0 + β1 x0 = −40.7839 + 454.1587 × 0.55 = 209.0034. (9.49) • Estimativa de σ 2 ´ E, neste caso, dada por σ2 = ˆ 1 n−2 n n 2 ˆ yi − n y 2 − (β1 )2 ¯ i=1 x2 − n x2 ¯ i i=1 1 3170090.625 − 454.15872 × 9.583294625 24 − 2 = 54247.1805. = (9.50) • IC a 90% para E(Y |x0 ) – Passo 1 — V.a. fulcral para E(Y |x0 ) = β0 + β1 x0 Z= ˆ ˆ (β0 + β1 x0 ) − (β0 + β1 x0 ) σ2 ˆ × 1 n + ∼ t(n−2) (9.51) (x0 −¯)2 x n x2 −n x2 ¯ i=1 i – Passo 2 — Quantis de probabilidade J´ que (1 − α) × 100% = 90% temos α = 0.10 e lidaremos com os dois quantis a sim´tricos: e tabela ±Ft−1 (1 − α/2) = ±Ft−1 (1 − 0.10/2) = 1.717. (n−2) (24−2) – Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omit´ ımo-lo... 336 (9.52)
  • 342. – Passo 4 — Concretiza¸˜o ca ´ E dado por IC(1−α)×100% (β0 + β1 x0 ) = ˆ ˆ (β0 + β1 x0 ) ± Ft−1 (1 − α/2) × (n−2) = 209.0039 ± 1.717 × 54247.1805 σ2 × ˆ 1 24 + 1 n + (x0 −¯)2 x n x2 −n x2 ¯ i=1 i (0.55−0.911375)2 9.583294625 = [209.0039 ± 1.717 × 54.7678] = [209.0039 ± 94.0336] = [114.967, 303.0398]. • Exerc´ ıcio 9.36 — Intervalos de confian¸a para β0 e β1 c Determine IC para os coeficientes do modelo de RLS do Exemplo 9.35. 337 •
  • 343. 9.6 Testes de hip´teses sobre β0, β1 e o valor esperado o da resposta. Escusado ser´ dizer que ´ a partir das v.a. fulcrais introduzidas na sec¸ao anterior a e c˜ que obteremos estat´ ısticas de teste para o confronto de hip´teses sobre β0 , β1 e o E(Y |x0 ) = β0 + β1 x0 . Proposi¸˜o 9.37 — Estat´ ca ısticas de teste para β0 e β1 Mais uma vez sob a validade de i ∼i.i.d. normal(0, σ 2 ), i = 1, . . . , n, temos Hip´tese nula o Estat´ ıstica de teste ˆ β0 −β0,0 H0 : β0 = β0,0 σ2 × ˆ 1 + n ˆ β1 −β1,0 H0 : β1 = β1,0 σ2 ˆ n x2 −n x2 ¯ i=1 i H0 : E(Y |x0 ) = β0 + β1 x0 = E0 (Y |x0 ) ∼H0 t(n−2) ˆ ˆ (β0 +β1 x0 )−E0 (Y |x0 ) σ2 × ˆ 1 + n ∼H0 t(n−2) x2 ¯ n ¯ x2 −n x2 i=1 i ∼H0 t(n−2) (x0 −¯)2 x n ¯ x2 −n x2 i=1 i • Nota 9.38 — Testes de hip´teses sobre β1 o De entre os testes de hip´teses no ˆmbito do modelo de RLS destaque-se um teste de o a especial importˆncia por vezes denominado de a • teste de significˆncia da regress˜o. a a A hip´tese nula deste teste ´ o e • H0 : β1 = β1,0 = 0. Esta hip´tese ´ sin´nimo de inexistˆncia de associa¸ao linear entre a vari´vel resposta Y o e o e c˜ a e a vari´vel explicativa j´ que sob a validade de H0 temos Yi = β0 + i , i = 1, . . . , n. • a a 338
  • 344. Exemplo 9.39 — Testes de hip´teses sobre β1 o Considere o conjunto de dados do Exemplo 9.35 e teste a hip´tese de a velocidade de o recess˜o das nebulosas n˜o ser influenciada pela respectiva distˆncia a partir da terra ao a a a n´ de significˆncia de 10%. ıvel a • Hip´teses o H0 : β1 = β1,0 = 0 vs. H1 : β1 = 0 • N´ ıvel de significˆncia a α0 = 10% • Estat´ ıstica de teste T = ˆ β1 − β1,0 n i=1 σ2 ˆ ¯ x2 −n x2 i ∼H0 t(n−2) (9.53) • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Estamos a lidar com – um teste bilateral (H1 : β1 = 0), ˆ pelo que, quanto maior for o valor absoluto da estimativa de MV de β1 , β1 , mais nos devemos inclinar para a rejei¸˜o H0 . Logo a regi˜o de rejei¸ao de H0 (para valores ca a c˜ da estat´ ıstica de teste) ´ uma reuni˜o de intervalos do tipo e a W = (−∞, −c) ∪ (c, +∞), (9.54) onde c : P (Rejeitar H0 |H0 ) = α0 , i.e., tabela c = Ft−1 (1 − α0 /2) = Ft−1 (1 − 0.10/2) = 1.717. (n−2) (24−2) • Decis˜o a Tendo em conta que, de acordo com o Exemplo 9.35, ˆ β1 = 454.1587 σ 2 = 54247.1805 ˆ n i=1 x2 − n x2 = 9.583294625, ¯ i o valor observado da estat´ ıstica de teste ´ dado por e 339 (9.55)
  • 345. t = ˆ β1 − β1,0 n i=1 = σ2 ˆ x2 −n x2 ¯ i 454.1587 − 0 54247.1805 9.583294625 = 6.036378628 ∈ W = (−∞, −1.717) ∪ (1.717, +∞). (9.56) Deste modo, concluimos que devemos rejeitar a hip´tese de a velocidade de recess˜o o a das nebulosas n˜o ser influenciada pela respectiva distˆncia a partir da terra, ao a a n.s. de 10% bem como a qualquer outro n.s. maior que 10%. • Exerc´ ıcio 9.40 — Testes de hip´teses sobre β1 o Retome o conjunto de dados do Exemplo 9.4 (resistˆncia do pl´stico) e teste a hip´tese e a o de o tempo que decorre a partir da conclus˜o do processo de moldagem at´ ao momento a e de medi¸˜o da resistˆncia n˜o influenciar a resistˆncia do pl´stico ao n´ de significˆncia ca e a e a ıvel a de 5%. • Exerc´ ıcio 9.41 — Testes de hip´teses sobre β1 o Teste a significˆncia da regress˜o para o conjunto de dados do Exemplo 9.5 a a (hidrocarbonetos), calculando para o efeito um intervalo para o p − value. • Exemplo 9.42 — Testes de hip´teses sobre β0 e E(Y |x0 ) = β0 + β1 x0 o Com o objectivo de estimar a constante de elasticidade (β1 )−1 (em Newton/metro) de certo tipo de mola, foram seleccionadas 10 dessas molas, todas com o mesmo comprimento em repouso β0 (em metros). Foi obtido o seguinte conjunto de resultados, ap´s se ter o suspendido a mola i (i = 1, . . . , 10) um corpo com peso xi (em Newton) e medido o ` comprimento da mola ap´s tal suspens˜o yi : o a i xi yi 10 i=1 xi 1 0.25 0.206 = 13.75 2 0.50 0.212 10 2 i=1 xi 3 0.75 0.218 4 1.00 0.225 5 1.25 0.239 6 1.50 0.237 7 1.75 0.245 10 − n¯2 = 5.15625 x i=1 yi = 2.353 10 x¯ i=1 xi yi − n¯y = 0.131375. 340 8 2.00 0.251 9 2.25 0.257 10 2 i=1 yi 10 2.50 0.263 − n¯2 = 0.0034021 y
  • 346. Admita a validade do modelo de regress˜o linear simples Yi = β0 +β1 xi + a para este conjunto de dados e responda `s quest˜es que se seguem:10 a o i (i = 1, . . . , 10) (a) Obtenha estimativas de m´xima verosimilhan¸a do declive da recta, da constante de a c −1 elasticidade (β1 ) e do valor esperado do comprimento da mola ao sujeit´-la a uma a for¸a de 3.0 Newton. Comente esta ultima estimativa. c ´ • Estimativa de MV do declive da recta (β1 ) Ao tomar como hip´tese de trabalho o ter considera¸ao que n = 10 e c˜ i ∼i.i.d. normal(0, σ 2 ), i = 1, . . . , n, e ao n i=1 xi = 13.75 x = 1.375 ¯ n 2 ¯2 i=1 xi − n x = 5.15625 n i=1 yi = 2.353 y = 0.2353 ¯ n 2 ¯2 i=1 yi − n y = 0.0034021 n i=1 xi yi − n x y = 0.131375, ¯¯ depressa se conclui que n ¯¯ i=1 xi yi − n x y ˆ β1 = n 2 ¯2 i=1 xi − n x 0.131375 = 5.15625 = 0.0254788 • Estimativa de MV da constante de elasticidade (β1 )−1 Ao invocar-se a propriedade de invariˆncia dos estimadores de MV pode adiantara se que a estimativa de MV da constante de elasticidade, h(β1 ) = (β1 )−1 , ´ dada por e ˆ h(β1 ) = h(β1 ) ˆ = (β1 )−1 1 = 0.0254788 = 39.2483. 10 Adaptado do Exame de 24 de Junho de 2006. 341
  • 347. • Estimativa de MV de E(Y |x0 = 3) Invocando novamente a propriedade de invariˆncia dos estimadores de MV e a ˆ1 = 0.0254788 quer de tirando partido quer de β ˆ β0 = y − β1 x ¯ ˆ¯ = 0.2353 − 0.0254788 × 1.375 = 0.200267, pode adiantar-se que ˆ ˆ ˆ E(Y |x0 ) = β0 + β1 x0 = 0.200267 + 0.0254788 × 3 = 0.276703. • Coment´rio a A estimativa de MV do valor esperado do comprimento de uma mola ap´s a o suspens˜o de peso x0 = 3.0 deve ser usada com toda alguma cautela uma vez que a foi obtida por extrapolacao. Com efeito, x0 = 3.0 ∈ [x(1) , x(n) ] = [0.5, 2.5], ¸˜ ou seja o valor de x0 n˜o pertence a gama de pesos considerados para a obten¸ao a ` c˜ da recta de regress˜o. a (b) Teste a hip´tese de o comprimento em repouso comum `s 10 molas β0 (em metros) o a ser igual a 0.2m ao n´ de significˆncia de 5%. ıvel a • Hip´teses o H0 : β0 = β0,0 = 0.2 vs. H1 : β0 = 0.2 • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de teste ˆ β0 − β0,0 σ2 ˆ × 1 n + ∼H0 t(n−2) x2 ¯ n x2 −n x2 ¯ i=1 i • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Dado que – o teste ´ bilateral (H1 : β0 = 0.2), e 342
  • 348. a regi˜o de rejei¸ao de H0 (para valores da estat´ a c˜ ıstica de teste) ´ a reuni˜o de e a intervalos W = (−∞, −c) ∪ (c, +∞), onde c : P (Rejeitar H0 |H0 ) = α0 , ou seja, tabela c = Ft−1 (1 − α0 /2) = Ft−1 (1 − 0.05/2) = 2.306. (n−2) (10−2) • Decis˜o a Tendo em conta os c´lculos anteriores bem como o facto de a estimativa centrada a de σ 2 ser igual a σ2 = ˆ n 1 n−2 n 2 ˆ yi − n y 2 − (β1 )2 ¯ i=1 x2 − n x2 ¯ i i=1 1 0.0034021 − 0.02547882 × 5.15625 10 − 2 = 0.00000685263, = tem-se o seguinte valor observado da estat´ ıstica de teste: ˆ β0 − β0,0 t = σ2 × ˆ 1 n + n i=1 x2 ¯ ¯ x2 −n x2 i 0.200267 − 0.2 = 0.00000685263 × 1 10 + 1.3752 5.15625 = 0.149307 ∈ W = (−∞, −2.306) ∪ (2.306, +∞). Logo n˜o se deve rejeitar a hip´tese de o comprimento em repouso das molas a o (β0 ) ser igual a 20cm ao n.s. de 5% nem a qualquer outro n.s. menor que 5%. (c) Teste agora a hip´tese de o comprimento esperado ap´s suspens˜o de um peso de o o a x0 = 2 ser igual a 0.25m ao n´ de significˆncia de 10%. ıvel a • Hip´teses o H0 : E(Y |x0 = 2) = E0 (Y |x0 = 2) = 0.25 vs. H1 : E(Y |x0 = 2) = E0 (Y |x0 = 2) • N´ ıvel de significˆncia a α0 = 10% 343
  • 349. • Estat´ ıstica de teste ˆ ˆ (β0 + β1 x0 ) − E0 (Y |x0 ) σ2 ˆ × 1 n + ∼H0 t(n−2) (x0 −¯)2 x n x2 −n x2 ¯ i=1 i • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) A regi˜o de rejei¸ao de H0 ´ a reuni˜o de intervalos W = (−∞, −c) ∪ (c, +∞), a c˜ e a onde tabela c = Ft−1 (1 − α0 /2) = Ft−1 (1 − 0.10/2) = 1.860, (n−2) (10−2) j´ que o teste ´ bilateral (H1 : E(Y |x0 = 2) = E0 (Y |x0 = 2)). a e • Decis˜o a Capitalizando nos c´lculos das al´ a ıneas anteriores obt´m-se o seguinte valor e observado da estat´ ıstica de teste ˆ ˆ (β0 + β1 x0 ) − E0 (Y |x0 ) t = (x −¯ 2 1 σ 2 × n + n 0 x2x) x2 ˆ −n ¯ i=1 = i (0.200267 + 0.0254788 × 2) − 0.25 0.00000685263 × 1 10 + (2.0−1.375)2 5.15625 = 1.11586 ∈ W = (−∞, −1.860) ∪ (1.860, +∞). Assim sendo, n˜o se deve rejeitar a hip´tese de o comprimento esperado de mola a o ap´s suspens˜o de peso de 2 Newton ser igual a 0.25m a qualquer n.s. menor ou o a igual a 10%. • 344
  • 350. 9.7 Coeficiente de determina¸˜o e an´lise de res´ ca a ıduos na avalia¸˜o do modelo ca Motiva¸˜o 9.43 — Coeficiente de determina¸˜o ca ca Para al´m de averiguarmos se a vari´vel resposta (Y ) depende linearmente da vari´vel e a a explicativa (x), ´ fundamental verificar se a recta de regress˜o se ajusta bem ao conjunto e a de dados. Para o efeito limitar-nos-emos a calcular o coeficiente de determina¸ao no c˜ ambito desta disciplina. ˆ • Defini¸˜o informal 9.44 — Coeficiente de determina¸˜o ca ca Trata-se de coeficiente que d´ ideia aproximada do ajustamento da recta de regress˜o aos a a ´ dados. E definido por n y i=1 (ˆi n i=1 (yi − y )2 ¯ − y )2 ¯ ¯¯ ( n xi yi − n x y )2 i=1 . = n 2 2) × ( n y2 − n y2) ¯ ¯ ( i=1 xi − n x i=1 i r2 = (9.57) Assim, r2 × 100% corresponde a ` • percentagem da varia¸˜o total ( ca n y ¯ ( i=1 (ˆi − y )2 ). n i=1 (yi − y )2 ) explicada pela vari´vel regressora x ¯ a • Nota 9.45 — Coeficiente de determina¸˜o ca Escusado ser´ dizer que a segunda f´rmula do coeficiente de determina¸˜o que figura na a o ca defini¸ao informal 9.44 ´ de longe a mais conveniente exactamente por tirar partido de c˜ e quantidades previamente calculadas.11 Importa notar ainda que: • r2 ∈ [0, 1] • r2 = 1 ⇔ yi = yi , i = 1, . . . , n → modelo RLS muito bom. ˆ Com efeito, caso yi = yi , i = 1, . . . , n, todos os pontos est˜o sobre a recta de ˆ a regress˜o, pelo que o modelo de regressˆo explica toda a variabilidade observada a a na vari´vel resposta Y . O modelo de RLS ´ muito bom. a e 11 Esta f´rmula leva-nos a afirmar que o coeficiente de determina¸˜o corresponde ao quadrado do o ca coeficiente de correla¸˜o emp´ ca ırica entre as vari´veis x e y. a 345
  • 351. • r2 = 0 ⇔ yi = y , i = 1, . . . , n → modelo RLS muito mau. ˆ ¯ De facto, caso yi = y , i = 1, . . . , n, o modelo de regress˜o ´ incapaz de explicar a ˆ ¯ a e variabilidade observada na vari´vel resposta Y . O modelo de RLS ´ muito mau. • a e Exemplo 9.46 — Coeficiente de determina¸˜o ca Retome o Exemplo 9.35 (velocidade de recess˜o de nebulosas). Calcule e comente o valor a do coeficiente de determina¸˜o. ca • Coeficiente de determina¸˜o ca ´ E dado por r2 = xi yi − n x y )2 ¯¯ n n 2 2 ¯ ¯ ( i=1 xi − n x2 ) × ( i=1 yi − n y 2 ) ( n i=1 (12513.7 − 24 × 0.911375 × 373.125)2 = (29.5178 − 24 × 0.9113752 ) × (6511425 − 24 × 373.1252 ) 4352.3368752 = 9.58329 × 3170090.625 = 0.6235. (9.58) A recta de regress˜o explica 62.35% da varia¸ao total da vari´vel resposta Y . a c˜ a Assim, havendo cerca de 40% de varia¸˜o n˜o explicada, pode afirmar-se que a ca a recta estimada se ajusta razoavelmente ao nosso conjunto de dados. • Exerc´ ıcio 9.47 — Coeficiente de determina¸˜o ca Certifique-se que o coeficiente de determina¸˜o do Exemplo 9.4 (resistˆncia do pl´stico) ´ ca e a e ligeiramente inferior a 96%, podendo concluir-se que a recta estimada se ajusta muito bem aos dados, o que j´ era bem vis´ pelo gr´fico que acompanhava este mesmo exemplo. • a ıvel a Nota 9.48 — An´lise emp´ a ırica de res´ ıduos Por forma a averiguar a adequa¸ao do modelo de RLS e a razoabilidade das hip´teses de c˜ o trabalho deve elaborar-se um gr´fico em cujas a ˆ ˆ • abcissas devem constar os “fitted values” (ˆi = β0 + β1 xi ) y e cujas • ordenadas correspondem aos res´ ıduos (ei = yi − yi ). ˆ 346
  • 352. Caso as hip´teses de trabalho sobre os erros aleat´rios ( i ∼i.i.d. normal(0, σ 2 )) n˜o estejam o o a a ser violadas: • o gr´fico acabado de descrever deve ter o aspecto de uma mancha de pontos dispersos a aleatoriamente numa faixa horizontal (Esquema...) e • o histograma dos res´ ıduos deve ter um aspecto sim´trico e semelhante a f.d.p. da e ` v.a normal. • Exemplo 9.49 — An´lise emp´ a ırica de res´ ıduos De seguida obt´m-se o gr´fico de res´ e a ıduos (ei = yi − yi ) vs. “fitted values” (ˆi ), para os ˆ y dados da resistˆncia do pl´stico do Exemplo 9.4. e a Este gr´fico assemelha-se a uma mancha de pontos dispersos ao acaso numa faixa a horizontal, pelo que se pode concluir que a recta estimada se ajusta muito bem aos dados, o que, ali´s, se coaduna quer com o gr´fico dos dados (ver Exemplo 9.4), quer com o valor a a elevado do coeficiente de determina¸˜o (ver Exerc´ 9.47). ca ıcio • Nota 9.50 — An´lise emp´ a ırica de res´ ıduos Dependendo do aspecto do gr´fico de res´ a ıduos (ei = yi − yi ) vs. “fitted values” (ˆi ), ˆ y podemos ser levados a concluir que estamos a lidar com: • um modelo de regress˜o n˜o linear a a • erros aleat´rios com variˆncia n˜o constante o a a • observa¸˜es discordantes co • falta de independˆncia. e (Esquemas...) • 347
  • 353. Exemplo 9.51 — Exame de 9 de Janeiro de 2007 Numa dada regi˜o pretende determinar-se se existe uma rela¸˜o entre as despesas b´sicas a ca a anuais das fam´ ılias (Y ) e o seu rendimento anual (x). A recolha de uma amostra de 10 fam´ ılias conduziu aos seguintes resultados, em milhares de euros: i 1 2 3 4 5 6 7 8 9 10 Rendimento (xi ) Despesas b´sicas anuais (yi ) a 22 16 26 17 45 26 37 24 28 22 50 21 56 32 34 18 60 30 40 20 10 i=1 xi 10 2 i=1 xi = 398 = 17330 10 i=1 yi = 226 10 2 i=1 yi = 5370 10 i=1 xi yi Admita a validade do modelo de regress˜o linear simples Yi = β0 +β1 xi + a para este conjunto de dados e responda `s seguintes quest˜es: a o (a) Estime a recta de regress˜o. a • Estimativas de β0 e β1 Tendo em conta que n = 10 e n i=1 xi = 398 x = 39.8 ¯ n 2 i=1 xi = 17330 n 2 ¯2 i=1 xi − n x = 1489.6 n i=1 yi = 226 y = 22.6 ¯ n 2 i=1 yi = 5370 n 2 ¯2 i=1 yi − n y = 262.4 n i=1 n i=1 xi yi = 9522, xi yi − n x y = 527.2, ¯¯ obt´m-se e ˆ β1 = n ¯¯ i=1 xi yi − n x y n 2 ¯2 i=1 xi − n x 527.2 1489.6 = 0.35392 = y − β1 x ¯ ˆ¯ = ˆ β0 = 22.6 − 0.35392 × 39.8 = 8.5196. 348 i = 9522. (i = 1, . . . , 10)
  • 354. • Recta de regress˜o a ˆ ˆ ˆ y = E(Y |x) = β0 + β1 x = 8.5196 + 0.35392 x, para x ∈ [22, 60]. ˆ (b) Calcule o coeficiente de determina¸˜o e comente o valor que obteve. ca • Coeficiente de determina¸˜o ca Tirando partido dos c´lculos auxiliares da al´ a ınea anterior tem-se: r 2 xi yi − n x y )2 ¯¯ = n 2 2) × ( n y2 − n y2) ¯ ¯ ( i=1 xi − n x i=1 i ( = n i=1 527.22 1489.6 × 262.4 = 0.711. 71.1% da varia¸˜o total nas despesas b´sicas anuais das fam´ ca a ılias (Y ) ´ explicada e pelo rendimento anual (x), pelo que a recta estimada se ajusta razoavelmente ao conjunto de dados. (c) Ser´ que a amostra de que disp˜e permite concluir — ao n´ de significˆncia de a o ıvel a 5% — que h´ rela¸ao linear positiva entre as despesas b´sicas anuais e o rendimento a c˜ a anual? • Hip´teses o H0 : β1 = β1,0 = 0 vs. H1 : β1 > 0 • N´ ıvel de significˆncia a α0 = 5% • Estat´ ıstica de teste ˆ β1 − β1,0 T = 2 n i=1 σ ˆ x2 −n x2 ¯ i ∼H0 t(n−2) • Regi˜o de rejei¸˜o de H0 (para valores da estat´ a ca ıstica de teste) Ao lidar com – um teste unilateral a direita (H1 : β1 > 0), ` ˆ quanto maior for o valor da estimativa de MV de β1 , β1 , mais raz˜es temos o para rejeitar H0 , pelo que a regi˜o de rejei¸ao de H0 (para valores da estat´ a c˜ ıstica de teste) ´ um intervalo ` direita e a W = (c, +∞), 349
  • 355. onde tabela c = Ft−1 (1 − α0 ) = Ft−1 (1 − 0.05) = 1.86. (n−2) (10−2) • Decis˜o a Ora, ˆ β1 = 0.35392 1 2 ˆ ¯ σ 2 = n−2 ( n yi − n y 2 ) − (β1 )2 ( ˆ i=1 1 = 10−2 (262.4 − 0.353922 × 1489.6) = 9.47671 n i=1 n i=1 x2 − n x2 ) ¯ i x2 − n x2 = 1489.6 ¯ i logo o valor observado da estat´ ıstica de teste ´ igual a e ˆ1 − β1,0 β t = 2 n i=1 = σ ˆ ¯ x2 −n x2 i 0.35392 − 0 9.47671 1489.6 = 4.437 ∈ W = (1.86, +∞). Conclui-se que devemos rejeitar a hip´tese de as despesas b´sicas anuais n˜o o a a serem influenciadas pelo rendimento anual a favor de uma rela¸ao ser do tipo c˜ linear positivo entre estas vari´veis, ao n.s. de 5% bem como a qualquer outro a n.s. maior que 5%. • Exemplo 9.52 — Exame de 25 de Janeiro de 2007 Num processo de fabrico suspeita-se que o n´mero de artigos defeituosos produzidos por u uma m´quina (Y ) dependa da velocidade a que essa mesma m´quina est´ a operar (x). a a a Abaixo encontram-se 12 registos do n´mero de defeituosos e da velocidade associada. u i 2 3 4 5 6 7 8 9 10 11 12 xi yi 12 i=1 xi 1 200 28 400 75 300 37 400 53 200 22 300 58 300 40 400 96 200 46 400 52 200 30 300 69 12 2 i=1 xi = 1160000, 12 2 i=1 yi = 35732, = 3600, 12 i=1 yi = 606, 12 i=1 xi yi = 196800. (a) Admitindo a validade do modelo de regress˜o linear simples (Yi = β0 + β1 xi + i , i = a 1, . . . , 12), obtenha estimativas pontuais de β0 e do aumento esperado no n´mero de u artigos defeituosos produzidos caso a velocidade duplique de 200 para 400 unidades. 350
  • 356. • Estimativa de β0 Como n = 12 e n i=1 xi = 3600 x = 300 ¯ n 2 i=1 xi = 1160000 n 2 ¯2 i=1 xi − n x = 80000 n i=1 yi = 606 y = 50.5 ¯ n 2 i=1 yi = 35732 n 2 ¯2 i=1 yi − n y = 5129 n i=1 n i=1 ˆ β1 = xi yi = 196800, xi yi − n x y = 15000, ¯¯ n x y −n x y ¯¯ i=1 i i n ¯ x2 −n x2 i=1 i = 15000 80000 = 0.1875 conclui-se que ˆ β0 = y − β1 x ¯ ˆ¯ = 50.5 − 0.1875 × 300 = −5.75. • Estimativa do aumento esperado quando... O aumento esperado no n´mero de artigos defeituosos produzidos caso a u velocidade duplique de 200 para 400 unidades ´ dado por e E(Y |x = 400) − E(Y |x = 200) = (β0 + β1 × 400) − (β0 + β1 × 200) = 200 β1 . Assim sendo a estimativa deste aumento ´ igual a e ˆ 200 β1 = 200 × 0.1875 = 37.5 artigos defeituosos. 351
  • 357. (b) Determine um intervalo de confian¸a a 95% para o valor esperado do n´mero de c u artigos defeituosos produzidos quando a velocidade da m´quina ´ de 450 unidades. a e Comente esta estimativa intervalar. • Estimativa de E(Y |x0 ) Ao considerar-se que a velocidade da m´quina ´ de 450 unidades, estima-se que a e o valor esperado do n´mero de artigos defeituosos produzidos seja igual a u ˆ ˆ ˆ E(Y |x0 ) = β0 + β1 x0 = −5.75 + 0.1875 × 450 = 78.625 artigos defeituosos. • IC a 95% para E(Y |x0 ) – Passo 1 — Selec¸˜o da v.a. fulcral para E(Y |x0 ) = β0 + β1 x0 ca ˆ ˆ (β0 + β1 x0 ) − (β0 + β1 x0 ) ∼ t(n−2) Z= (x0 −¯)2 x 2× 1 + σ ˆ n n ¯ x2 −n x2 i=1 i – Passo 2 — Obten¸˜o dos quantis de probabilidade ca Tendo em conta que (1 − α) × 100% = 95% temos α = 0.05 e usaremos com os quantis sim´tricos: e tabela ±Ft−1 (1 − α/2) = ±Ft−1 (1 − 0.05/2) = 2.228. (n−2) (12−2) – Passo 3 — Invers˜o da desigualdade aα ≤ Z ≤ bα a Omitimos este passo... – Passo 4 — Concretiza¸˜o ca Como a express˜o geral do IC a (1 − α) × 100% para β0 + β1 x0 a IC(1−α)×100% (β0 + β1 x0 ) = ˆ ˆ (β0 + β1 x0 ) ± Ft−1 (1 − α/2) × (n−2) σ2 × ˆ 1 n + e n = 10 x0 = 450 ˆ ˆ β0 + β1 x0 = 78.625 Ft−1 (1 − α/2) = 2.228 (n−2) 1 2 ˆ ¯ σ 2 = n−2 ( n yi − n y 2 ) − (β1 )2 ( ˆ i=1 1 = 12−2 (5129 − 0.18752 × 80000) = 231.65 352 n i=1 x2 − n x2 ) ¯ i (x0 −¯)2 x n x2 −n x2 ¯ i=1 i
  • 358. x = 300 ¯ tem-se = 78.625 ± 2.228 × 231.65 × 1 12 + (450−300)2 80000 = [78.625 ± 2.228 × 9.18998] = [58.1497, 99.1003]. • Coment´rio — Como a x0 = 450 ∈ [x(1) , x(n) ] = [ min xi , max xi ] = [200, 400], i=1,...,n i=1,...,n i.e., x0 = 450 n˜o pertence ` gama de valores da vari´vel expexplicativa, estamos a a a a cometer um erro de extrapolacao, pelo que as estimativas pontual e ¸˜ intervalar de E(Y |x0 = 450) devem ser usadas com muita cautela. (c) Calcule o coeficiente de determina¸˜o e comente o valor obtido. ca • Coeficiente de determina¸˜o ca Tirando mais uma vez partido dos c´lculos auxiliares da al´ a ınea (a) obt´m-se: e r2 = = xi y i − n x y ) 2 ¯¯ n 2 2) × ( n y2 − n y2) ¯ ¯ ( i=1 xi − n x i=1 i ( n i=1 150002 80000 × 5129 0.548. Apenas 54.8% da varia¸ao total no n´mero de artigos defeituosos (Y ) ´ explicada c˜ u e pela velocidade a que a m´quina est´ a operar (x), pelo que a recta estimada se a a ajusta de forma nada razo´vel ao conjunto de dados. a Mais uma raz˜o para ter cautela com as estimativas pontual e intervalar obtidas a na al´ ınea (b). • Nota final — A resolu¸ao dos exerc´ c˜ ıcios 9.1 e 9.4 da colectˆnea de exerc´ a ıcios est´ a dispon´ em ıvel http://www.math.ist.utl.pt/∼apires/MaterialPE/ProblemasCap9.pdf 353
  • 359. Referˆncias e Casella, G. e Berger, R.L. (2002). Statistical inference. Duxbury – Thomson Learning. Montgomery, D.C. e Runger, G.C. (2003). Applied Statistics and Probability for Engineers. John Wiley & Sons, New York. 3a. Edi¸ao. c˜ Murteira, B.J.F. (1990). Probabilidades e ` Estat´stica, Vols. a ı McGraw-Hill, Lisboa. I e II (2a. Edi¸˜o). ca Paulino, C.D. (1994). Notas de An´lise Preliminar de Dados Univariados. Reprografia a do IST, Lisboa. Pestana, D.D. e Velosa, S.F. (2002). Introdu¸˜o ` Probabilidade e ` Estat´stica. ca a a ı Funda¸ao Calouste Gulbenkian, Lisboa. c˜ Rohatgi, V.K. e Saleh, A.K.Md.E. (2001). An Introduction to Probability and Statistics. John Wiley & Sons, Inc. 354
  • 360. Formul´rio a P (X = x) = n x p (1 − p)n−x x P (X = x) = x = 0, 1, . . . , n e−λ λx x! P (X = x) = p(1 − p)x−1 x = 0, 1, . . . x = 1, 2, . . . V ar(X) = np(1 − p) E(X) = V ar(X) = λ E(X) = np N −M n−x M x P (X = x) = N n M N V ar(X) = n fX (x) = √ S2 = + fX (x) = λe−λx , x ≥ 0 V ar(X) = σ 2 n i=1 2 ¯ Xi − X E(X) = (n − 1)S 2 ∼ χ2 (n−1) σ2 1 λ V ar(X) = ¯ ¯ X1 − X2 − (µ1 − µ2 ) 2 σ1 n1 + ¯ ¯ X1 − X2 − (µ1 − µ2 ) a ∼ N (0, 1) 2 S2 n2 2 2 (n1 −1)S1 +(n2 −1)S2 n1 +n2 −2 (Oi − Ei )2 a 2 ∼ χ(k−m−1) H0 Ei i=1 1 n1 r s ˆ ˆ¯ ¯ β0 = Y − β1 x Yi = β0 + β1 xi + εi ˆ β1 = xi Yi − n¯Y x¯ i=1 n i=1 n 1 ˆ ˆ ˆ 2 ˆ Yi − Yi , Yi = β0 + β1 xi n − 2 i=1 1 n + x2 x2 −n¯2 x i σ2 ˆ ∼ t(n−2) σ2 = ˆ ˆ β1 − β1 σ2 ˆ x2 −n¯2 x i i=1 n i=1 x2 i n 1 n−2 i=1 ˆ ¯ Yi2 − nY 2 − β1 1 n xi Yi − n¯Y x¯ − n¯2 × x x2 − n¯2 x i 2 n i=1 x2 − n¯2 x i ˆ ˆ β0 + β1 x0 − (β0 + β1 x0 ) ∼ t(n−2) n R2 = ∼ t(n1 +n2 −2) 1 n2 + n ˆ β0 − β0 ∼ N (0, 1) (Oij − Eij )2 a 2 ∼ χ(r−1)(s−1) H0 Eij i=1 j=1 k σ2 = ˆ 2 σ2 n2 1 λ2 n−1 ¯ ¯ X1 − X2 − (µ1 − µ2 ) 2 S1 n1 M N −M N −n N N N −1 ¯ X −µ √ ∼ t(n−1) S/ n ¯ X −µ √ ∼ N (0, 1) σ/ n (1 − p) p2 V ar(X) = 1 ,a≤x≤b b−a b+a (b − a)2 E(X) = V ar(X) = 2 12 1 (x − µ)2 exp − ,x∈I R 2σ 2 2πσ 2 E(X) = µ 1 p fX (x) = x = max {0, n − N + M } , . . . , min {n, M } E(X) = n E(X) = n i=1 2 ¯ Yi2 − nY 2 + (¯−x0 )2 x x2 −n¯2 x i σ2 ˆ ∼ t(n−2)

×