Your SlideShare is downloading. ×
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Apostila processos estocásticos
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Apostila processos estocásticos

231

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
231
On Slideshare
0
From Embeds
0
Number of Embeds
1
Actions
Shares
0
Downloads
20
Comments
0
Likes
0
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Universidade Federal Fluminense Mestrado em Engenharia de Telecomunica¸˜es co Processos Estoc´sticos I a apostila usada no curso Prof. Edson Cataldo
  • 2. Contents 1 Modelos 1.1 Introdu¸˜o . . . . . . . . . . . . . . . . . ca 1.2 Modelos matem´ticos . . . . . . . . . . . a 1.3 Simula¸˜o computacional . . . . . . . . . ca 1.4 Modelos determin´ ısticos . . . . . . . . . 1.5 Modelos probabil´ ısticos . . . . . . . . . . 1.6 Regularidade estat´ ıstica . . . . . . . . . 1.7 Propriedades de freq¨ˆncia relativa . . . ue 1.8 Constru¸˜o de um modelo probabil´ ca ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 4 4 5 5 6 2 Conceitos b´sicos da Teoria de Probabilidade a 2.1 Especifica¸˜o de experimentos aleat´rios . . . ca o 2.2 O espa¸o amostral . . . . . . . . . . . . . . . c 2.3 Eventos . . . . . . . . . . . . . . . . . . . . . 2.4 Axiomas de probabilidade . . . . . . . . . . . 2.5 Espa¸os amostrais discretos e cont´ c ınuos . . . . 2.6 Probabilidade Condicional . . . . . . . . . . . 2.6.1 Defini¸˜o . . . . . . . . . . . . . . . . ca 2.6.2 Teorema da Probabilidade total . . . . 2.6.3 Regra de Bayes . . . . . . . . . . . . . 2.7 Eventos independentes . . . . . . . . . . . . . 2.8 A lei de probabilidade binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 9 10 10 10 12 12 14 14 3 Vari´veis Aleat´rias a o 3.1 Defini¸˜o . . . . . . . . . . . . . . . . ca 3.2 Fun¸˜o distribui¸˜o de probabilidade ca ca 3.3 Tipos de vari´veis aleat´rias . . . . . a o 3.3.1 Vari´vel aleat´ria discreta . . a o 3.3.2 Vari´vel aleat´ria cont´ a o ınua . . 3.3.3 Vari´vel aleat´ria mista . . . a o 3.4 Fun¸˜o densidade de probabilidade . ca 3.5 Exemplos de vari´veis aleat´rias . . . a o 3.5.1 Vari´veis aleat´rias discretas . a o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 16 19 19 19 20 21 23 23 . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  • 3. 3.5.2 Vari´veis aleat´rias cont´ a o ınuas . . . . . . . . . . . . . . . . . . . . . . . . 24 4 Vetores de vari´veis aleat´rias a o 4.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . . . . . . ca 4.2 Eventos associados a vetores aleat´rios . . . . . . . o 4.3 Independˆncia . . . . . . . . . . . . . . . . . . . . . e 4.4 Fun¸˜o distribui¸˜o de probabilidade conjunta . . . ca ca 4.4.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . ca 4.4.2 Propriedades da F.D.P. conjunta . . . . . . 4.5 Fun¸˜o densidade de probabilidade conjunta . . . . ca 4.5.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . ca 4.5.2 Propriedades da f.d.p. conjunta . . . . . . . 4.6 Fun¸˜es distribui¸˜o e densidade condicionais . . . co ca 4.6.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . ca 4.6.2 Independˆncia entre duas vari´veis aleat´rias e a o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 27 27 28 28 28 29 30 30 30 32 32 33 5 Fun¸˜es de vari´veis aleat´rias co a o 37 5.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 ca 5.2 Fun¸˜o densidade de probabilidade de Y = g(X) . . . . . . . . . . . . . . . . . . 37 ca 6 Valor esperado, variˆncia e desvio padr˜o de vari´veis aleat´rias a a a o 6.1 Valor esperado (ou m´dia) de um v.a . . . . . . . . . . . . . . . . . e 6.2 Variˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 6.3 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Momentos de ordem k . . . . . . . . . . . . . . . . . . . . . 6.3.2 Momento central de ordem k . . . . . . . . . . . . . . . . . . 6.3.3 Valor esperado de um vetor aleat´rio . . . . . . . . . . . . . o 6.4 Matriz Covariˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . a 6.5 Momentos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Defini¸˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . co 6.5.2 Coeficiente de correla¸˜o . . . . . . . . . . . . . . . . . . . . ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Processos Estoc´sticos a 7.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 7.2 Especifica¸˜o de um processo estoc´stico . . . . . . . . . . . . . . . . . . . . . . ca a 7.3 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 M´dia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 7.3.2 Autocorrela¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 7.3.3 Autocovariˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 7.4 Processos estoc´sticos (estritamente) estacion´rios . . . . . . . . . . . . . . . . . a a 7.5 Processos estoc´sticos estacion´rios no sentido amplo ou fracamente estacion´rios a a a 7.5.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 7.5.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Estat´ ısticas conjuntas de processos estoc´sticos . . . . . . . . . . . . . . . . . . a 2 41 41 42 43 43 43 43 44 45 45 45 47 47 48 50 50 50 50 52 52 52 53 53
  • 4. 7.6.1 7.6.2 7.6.3 7.6.4 Especifica¸˜o conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca Momentos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Processos estoc´sticos conjuntamente estacion´rios . . . . . . . . . . . . a a Propriedades da fun¸˜o correla¸˜o cruzada de dois processos estoc´sticos ca ca a conjuntamente estacion´rios . . . . . . . . . . . . . . . . . . . . . . . . . a 7.6.5 Independˆncia, n˜o-correla¸˜o e ortogonalidade . . . . . . . . . . . . . . e a ca 7.6.6 Processos Erg´dicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 7.7 Processos estoc´sticos gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . a 8 Revis˜o de an´lise de Fourier a a 8.1 Introdu¸˜o . . . . . . . . . . ca 8.2 S´rie de Fourier . . . . . . . e 8.3 Transformada de Fourier . . 8.4 Convolu¸˜o . . . . . . . . . ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 An´lise e processamento de sinais aleat´rios a o 9.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 9.2 Alguns conceitos sobre sinais determin´ ısticos . . . . . . . . . . 9.2.1 Energia e Potˆncia de um sinal . . . . . . . . . . . . . e 9.2.2 Algumas f´rmulas relacionadas a sinais determin´ o ısticos 9.2.3 Teorema de Parseval . . . . . . . . . . . . . . . . . . . 9.2.4 Densidade espectral de energia e de potˆncia . . . . . . e 9.3 Correla¸˜o cruzada e autocorrela¸˜o . . . . . . . . . . . . . . . ca ca 9.3.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . ca 9.3.2 Defini¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . ca 9.4 Densidade espectral de potˆncia para sinais aleat´rios . . . . . e o 9.5 Teorema - Sx (ω) = F {Rx (τ )} . . . . . . . . . . . . . . . . . . 9.6 Resposta de sistemas lineares a sinais aleat´rios . . . . . . . . o 10 Referˆncias e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 53 54 54 54 55 55 . . . . 57 57 57 63 68 . . . . . . . . . . . . 70 70 70 70 71 71 72 72 72 73 73 74 77 80 3
  • 5. Chapter 1 Modelos 1.1 Introdu¸˜o ca Podemos dizer que um modelo (matem´tico, f´ a ısico, probabil´ ıstico, econˆmico,...) ´ uma repo e resenta¸˜o de uma situa¸˜o existente. Seu objetivo ´ explicar um determinado comportamento ca ca e prevendo o resultado de experimentos envolvendo a tal situa¸˜o. ca 1.2 Modelos matem´ticos a Modelos matem´ticos s˜o usados quando o fenˆmeno observado tem propriedades mena a o sur´veis e consiste de um conjunto de considera¸˜es e rela¸˜es matem´ticas sobre o funcionaa co co a mento do sistema em observa¸˜o. ca 1.3 Simula¸˜o computacional ca A simula¸˜o computacional ´ realizada atrav´s de programas que ir˜o gerar os resultados ca e e a previstos pelo modelo. 1.4 Modelos determin´ ısticos Em modelos determin´ ısticos, as condi¸˜es sob as quais um experimento ´ realizado determina co e o exato resultado desse experimento. Nesses modelos, a solu¸˜o de um conjunto de equa¸˜es especifica o exato resultado do ca co experimento. 1.5 Modelos probabil´ ısticos Definimos um experimento aleat´rio como aquele no qual os resultados variam, embora o o experimento seja repetido sob as mesmas condi¸˜es. Os modelos probabil´ co ısticos ir˜o prever a 4
  • 6. poss´ ıveis resultados ou faixa de resultados para os sistemas em que os resultados s˜o aleat´rios; a o isto ´, embora as entradas sejam as mesmas, as sa´ e ıdas s˜o diferentes. a 1.6 Regularidade estat´ ıstica Muitos modelos probabil´ ısticos s˜o baseados no fato de que m´dias obtidas em longas a e seq¨ˆncias de repeti¸˜es de experimentos aleat´rios tˆm o mesmo valor. Esta propriedade ue co o e ´ chamada de regularidade estat´ e ıstica. Considere o seguinte exemplo: “Uma bola ´ selecionada de uma urna contendo trˆs bolas idˆnticas numeradas com os e e e n´ meros 0,1 e 2. O n´ mero da bola ´ anotado e a bola ´ retornada ` urna.” u u e e a O resultado deste experimento ´ um n´ mero do conjunto S = {0, 1, 2}. e u Suponha que o experimento seja repetido n vezes sob condi¸˜es idˆnticas. Sejam N0 (n), co e N1 (n) e N2 (n) o n´ mero de vezes no qual os resultados s˜o as bolas 0, 1 e 2, respectivamente. u a Nk (n) Definimos a freq¨ˆncia relativa do resultado k, k = 0, 1 ou 2, por: fk (n) = ue . n De acordo com o que chamamos de regularidade estat´ ıstica, fk (n) varia menos, em torno de uma constante, ` medida que n ´ tomado grande; isto ´, lim fk (n) = pk . A constante pk ´ a e e e n→+∞ chamada de probabilidade do resultado k. Em modelos probabil´ ısticos, as condi¸˜es sob as quais um experimento aleat´rio ´ realizado co o e determina as probabilidades dos resultados do experimento. 1.7 Propriedades de freq¨ˆncia relativa ue Suponha que um experimento aleat´rio tenha K poss´ o ıveis resultados; isto ´, S = {1, 2, . . . , K}. e Suponha que o experimento tenha sido repetido n vezes e considere que Nk (n) ´ o n´ mero de e u vezes em que o resultado obtido foi k, sendo k = 1, 2, . . . , K. Temos, 0 ≤ Nk (n) ≤ n , k = 1, 2, . . . , K. Assim, 0 ≤ fk (n) ≤ 1 , k = 1, 2, . . . , K. K Tamb´m, e k=1 K Nk (n) = n ⇒ fk (n) = 1. k=1 Algumas vezes estamos interessados na ocorrˆncia de eventos associados com os resultados e de um experimento. Por exemplo, considere o exemplo da se¸˜o anterior e o caso em que “uma bola de n´ mero ca u diferente de 1 ´ selecionada”. e Se uma bola de n´ mero diferente de 1 ´ selecionada, ent˜o uma bola de n´ mero 0 ou 2 foi u e a u selecionada. Logo, a freq¨ˆncia relativa, neste caso, ser´ obtida fazendo: ue a Ncaso (n) = N0 (n) + N2 (n) ⇒ fcaso (n) = 5 N0 (n) + N2 (n) = f0 (n) + f2 (n). n
  • 7. 1.8 Constru¸˜o de um modelo probabil´ ca ıstico Podemos, portanto, dizer que para a constru¸˜o de um modelo probabil´ ca ıstico devemos: (i) definir o experimento aleat´rio correspondente; o (ii) especificar o conjunto S de todos os poss´ ıveis resultados. Chamaremos esse conjunto de espa¸o amostral; c (iii) especificar uma associa¸˜o de probabilidades para todos os casos de interesse. Definiremos ca mais adiante esses casos atrav´s do que chamaremos de eventos. e H´ uma infinidade de aplica¸˜es de modelos probabil´ a co ısticos. Em Telecomunica¸˜es, podemos co citar, sistemas de transmiss˜o de voz, tr´fego telefˆnico, desvanecimento de sinais radioel´tricos. a a o e 6
  • 8. Chapter 2 Conceitos b´sicos da Teoria de a Probabilidade 2.1 Especifica¸˜o de experimentos aleat´rios ca o Um experimento aleat´rio ´ um experimento no qual o resultado varia de forma, digamos, o e imprevis´ quando o experimento ´ repetido sob as mesmas condi¸˜es. Podemos dizer, de ıvel e co maneira informal, que um experimento aleat´rio ser´ especificado pela implementa¸˜o de um o a ca procedimento experimental e por um conjunto de uma ou mais medidas de observa¸˜es. co Exemplos de experimentos aleat´rios: o Consideremos os seguintes experimentos: (a) E1 : Selecione uma bola de uma urna contendo bolas numeradas de 1 a 50. Anote o n´ mero da bola. u (b) E2 : Lance uma moeda trˆs vezes. Anote o n´ mero de caras. e u (c) E3 : Transmita um bloco de informa¸˜es atrav´s de um canal ruidoso, repetidamente, co e at´ que um bloco livre de erros chegue ao receptor. Conte o n´mero de transmiss˜es e u o requeridas. (d) E4 : Escolha um n´ mero real ao acaso entre zero e um. Anote esse n´ mero. u u 2.2 O espa¸o amostral c Embora os resultados em experimentos aleat´rios sejam imprevis´ o ıveis, ´ necess´rio determie a nar o conjunto de poss´ ıveis resultados. Definimos resultado ou ponto amostra ou simplesmente amostra de um experimento aleat´rio o como um resultado que n˜o pode ser decomposto em outros resultados. Dessa forma, quando a realizamos um experimento aleat´rio um, e somente um, resultado ocorre. Assim, os resultados o 7
  • 9. s˜o mutuamente exclusivos no sentido de que eles n˜o podem ocorrer simultaneamente. a a Definimos o espa¸o amostral S de um experimento aleat´rio como o conjunto de todos os c o resultados poss´ ıveis. Denotaremos um resultado de um experimento aleat´rio por ξ. Assim, ξ o ´ um elemento de S. e Exemplos: A seguir est˜o exemplos de espa¸os amostrais, relacionados com os experimentos E1 , E2 , a c E3 e E4 , respectivamente. (a) S1 = {1, 2, . . . , 50} (b) S2 = {0, 1, 2, 3} (c) S3 = {1, 2, 3, . . .} (d) S4 = {x ∈ R : 0 ≤ x ≤ 1} = [0, 1] Chamaremos S de espa¸o amostral discreto se S for cont´vel e chamaremos S de espa¸o c a c amostral cont´ ınuo, se S n˜o for cont´vel. Nos exemplos, S1 , S2 e S3 s˜o discretos e S4 ´ cont´ a a a e ınuo. 2.3 Eventos Normalmente, n˜o estamos interessados apenas nos resultados de um experimento, mas se a o resultado desse experimento satisfaz certas condi¸˜es. As condi¸˜es de interesse definem um co co subconjunto do espa¸o amostral; ou melhor, o conjunto de resultados ξ de S que satisfazem as c condi¸˜es dadas. co Definimos evento como um subconjunto de S. O evento chamado evento certo ´ o e pr´prio conjunto S e consiste de todos os resultados poss´ o ıveis e o evento nulo ou imposs´ ıvel n˜o cont´m nenhum resultado poss´ a e ıvel. Exemplos de eventos: A seguir est˜o exemplos de eventos relacionados com os experimentos E1 , E2 , E3 e E4 , a respectivamente. (a) e1 : “um n´ mero par ´ selecionado” - e1 = {2, 4, . . . , 48, 50}. u e (b) e2 : “o n´ mero de caras ´ igual ao n´ mero de coroas” - e2 = ∅. u e u (c) e3 : “menos que dez transmiss˜es s˜o requeridas” - e3 = {1, 2, . . . , 9}. o a (d) e4 : “o n´ mero selecionado ´ n˜o-negativo” - e4 = S4 . u e a 8
  • 10. 2.4 Axiomas de probabilidade Probabilidades s˜o n´ meros associados a eventos que indicam qu˜o “prov´vel” ´ a ocorrˆncia a u a a e e de um evento quando um experimento ´ realizado e uma “lei” de probabilidade ´ uma fun¸˜o e e ca que associa um n´ mero a um evento. u Seja E um experimento aleat´rio com espa¸o amostral S. Uma lei de probabilidade para o c o experimento E ´ uma “regra” que associa a cada evento A um n´ mero P [A], chamado de e u probabilidade de A. A lei de probabilidade deve satisfazer os seguintes axiomas: (i) P [A] ≥ 0 (ii) P [S] = 1 (iii) Se A ∩ B = ∅ ⇒ P [A ∪ B] = P [A] + P [B] (iii)’ Se A1 , A2 , . . . ´ uma sequˆncia de eventos tais que Ai ∩ Aj = ∅, para todos i = j, ent˜o e e a P [∪∞ Ak ] = k=1 ∞ P [Ak ] k=1 Corol´rios: a (i) P [Ac ] = 1 − P [A] (ii) P [A] ≤ 1 (iii) P [∅] = 0 (iv) Se A1 , A2 , . . . , An s˜o mutuamente exclusivos 2 a 2 ent˜o a a n P [∪n Ak ] k=1 = k=1 P [Ak ] , n ≥ 2 (v) P [A ∪ B] = P [A] + P [B] − P [A ∩ B] (vi) P [A ∪ B ∪ C] = P [A] + P [B] + P [C] − P [A ∩ B] − P [A ∩ C] − P [B ∩ C] + P [A ∩ B ∩ C] n (vii) P [∪n Ak ] = k=1 j=1 P [Aj ] − j<k P [Aj ∩ Ak ] + . . . + (−1)n+1 P [A1 ∩ . . . ∩ An ] (viii) P [A ∪ B] ≤ P [A] + P [B] (ix) Se A ⊂ B ⇒ P [A] ≤ P [B] 9
  • 11. 2.5 Espa¸os amostrais discretos e cont´ c ınuos Considere S = {a1 , a2 , . . . , an } um espa¸o amostral finito, sendo todos os eventos elec mentares s˜o mutuamente exclusivos. Assim, a probabilidade de qualquer evento B = {a′1 , a′2 , . . . , a′n } a ´ dada por P [B] = P [{a′1 , a′2 , . . . , a′m }] = P [{a′1 }] + P [{a′2 }] + . . . + P [{a′m }]. e Considerando S um espa¸o amostral infinitamente cont´vel, digamos S = {b1 , b2 , . . . , bn }, a c a probabilidade do evento D = {b′1 , b′2 , . . .} ´ dada por P [D] = P [{b′1 }] + P [{b′2 }] + . . .. e Se os resultados do espa¸o amostral discreto S s˜o igualmente prov´veis ent˜o a probabilic a a a dade de um evento ´ igual ` raz˜o entre o n´ mero de elementos do evento e o n´ mero total de e a a u u elementos do espa¸o amostral. c Espa¸os amostrais cont´ c ınuos aparecem em experimentos nos quais os resultados s˜o n´ meros a u reais. Os eventos de interesse nesses experimentos consistem de intervalos da reta real e de complementos, uni˜es e interse¸˜es desses eventos. Por esta raz˜o, leis de probabilidade em o co a experimentos com espa¸os amostrais cont´ c ınuos especificam uma regra para associar n´ meros a u intervalos da reta real. Considere o seguinte exemplo: “Tome um n´ mero x ao acaso entre zero e um”. u O espa¸o amostral S para esse experimento ´ o intervalo [0, 1], que n˜o ´ cont´vel. c e a e a Se n´s supomos que todos os resultados de S s˜o igualmente prov´veis, ent˜o podemos o a a a pensar que a probabilidade de o resultado estar no intervalo [0, 1/2] ´ a mesma de o resultado e 1 estar no intervalo [1/2, 1] e seria igual a . Por´m, como h´ infinitos n´ meros (incont´veis) e a u a 2 1 neste intervalo, a probabilidade de o resultado ser exatamente igual a , por exemplo, seria 2 1 zero. Da mesma forma, a probabilidade de o resultado ser exatamente igual a , por exemplo, 4 tamb´m seria zero. e 2.6 2.6.1 Probabilidade Condicional Defini¸˜o ca Muitas vezes estamos interessados em determinar se dois eventos, digamos A e B, est˜o a relacionados, no sentido de que o conhecimento da probabilidade associada a um deles altera a probabilidade associada ao outro. Queremos encontrar a probabilidade P [A|B], isto ´, a probabilidade do evento A, conhecida e a probabilidade do evento B. Em outras palavras, de uma maneira informal, queremos encontrar a probabilidade do evento A, dado que o evento B ocorreu. A probabilidade condicional P [A|B] ´ definida por: e P [A|B] = P [A ∩ B] , P [B] > 0 . P [B] 10
  • 12. Exemplos: (a) Uma urna cont´m duas bolas pretas numeradas (1 e 2) e duas bolas brancas, tamb´m e e numeradas (3 e 4). Retira-se uma bola da urna e anota-se seu n´mero e sua cor. Assim, O u espa¸o amostral desse experimento ´ S = {(1, p), (2, p), (3, b), (4, b)}. Considere que os quatro c e resultados s˜o igualmente prov´veis e os seguintes eventos: a a A = {(1, p), (2, p)} - bola preta selecionada B = {(2, p), (4, b)} - bola com n´ mero par selecionada u C = {(3, b), (4, b)} - n´ mero da bola ´ maior que 2 u e Determine: (i) P [A|B] Solu¸˜o: ca P [A|B] = P [A ∩ B] 1/4 1 = = = P [A] P [B] 2/4 2 (ii) P [A|C] Solu¸˜o: ca P [A|C] = P [A ∩ C] 0/4 = = 0 = P [A] P [C] 2/4 Observe que em (i) o conhecimento de B n˜o alterou a probabilidade de A P [A] = a 2 1 = . 4 2 Por´m, no segundo caso, o conhecimento de C implicou que A n˜o tinha ocorrido. e a OBS: Em alguns problemas ´ conveniente usar a f´rmula P [A ∩ B] = P [B|A]P [A] ou e o P [A ∩ B] = P [A|B]P [B]. (b) Uma urna cont´m duas bolas pretas e trˆs bolas brancas. Duas bolas s˜o selecionadas e e a ao acaso, sem reposi¸˜o, e a sequˆncia das bolas ´ anotada. Encontre a probabilidade de as ca e e duas bolas selecionadas serem pretas. Solu¸˜o: ca Considere os eventos: B1 - a primeira bola ´ preta e preta. Queremos calcular P [B1 ∩ B2 ]. e B2 - a segunda bola ´ e 2 1 Temos que, P [B1 ∩ B2 ] = P [B2 |B1 ]P [B1 ]. Mas, P [B2 |B1 ] = e P [B1 ] = . 4 5 2 1 1 Logo, P [B1 ∩ B2 ] = × = . 5 4 10 11
  • 13. 2.6.2 Teorema da Probabilidade total Sejam B1 , B2 , . . . , Bn eventos mutuamente exclusivos cuja uni˜o ´ igual ao espa¸o amostral a e c S. Nos referimos a esses conjuntos como uma parti¸˜o do conjunto S. ca Qualquer evento A pode ser representado como a uni˜o de eventos mutuamente exclusivos. a Temos, A = A ∩ S = A ∩ (B1 ∪ B2 ∪ · · · ∪ Bn ) = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bn ). E, P [A] = P [A ∩ B1 ] + P [A ∩ B2 ] + . . . + P [A ∩ Bn ] ou P [A] = P [A|B1 ]P [B1 ] + P [A|B2 ]P [B2 ] + . . . + P [A|Bn ]P [Bn ]. Exemplo: Considere uma urna contendo duas bolas pretas e trˆs bolas brancas. Encontre a probabie lidade de ao retirarmos duas bolas, ao acaso, sem reposi¸˜o, a segunda ser branca. ca Solu¸˜o: ca Para usar o Teorema da Probabilidade Total, devemos encontrar uma parti¸˜o do espa¸o ca c amostral S. Consideremos os dois seguintes eventos: A1 - a primeira bola ´ preta e e B1 - a primeira bola ´ branca. e Observamos que S = A1 ∪ B1 . Consideremos, ent˜o, o seguinte evento: C - a segunda bola ´ branca. a e Queremos calcular P [C]. Assim, P [C] = P [C|A1 ]P [A1 ] + P [C|B1 ]P [B1 ]. Portanto, P [C] = 2.6.3 3 3 2 2 3 × + × = . 4 5 4 5 5 Regra de Bayes Considere B1 , B2 , . . . , Bn a parti¸˜o de um espa¸o amostral S. Queremos calcular a probaca c bilidade do evento Bj , dado que o evento A ocorreu, sendo A um evento qualquer. Pela defini¸˜o de probabilidade condicional temos: ca 12
  • 14. P [Bj |A] = P [A ∩ Bj ] P [A] Mas, P [A|Bj ] = P [A ∩ Bj ] ⇒ P [A ∩ Bj ] = P [A|Bj ]P [Bj ] P [Bj ] Assim, P [Bj |A] = P [A|Bj ]P [Bj ] P [A ∩ Bj ] = = P [A] P [A] P [A|Bj ]P [Bj ] n P [A|Bj ]P [Bj ] j=1 conhecida como Regra de Bayes. Exemplo: Considere quatro caixas contendo componentes eletrˆnicos. A caixa 1 cont´m 2000 compoo e nentes, sendo 5% defeituosos. A caixa 2 cont´m 500 componentes, sendo 40% defeituosos. As e caixas 3 e 4 contˆm 1000 componentes cada, com 10% defeituosos. e Selecionamos uma caixa, ao acaso, e retiramos um componente, tamb´m ao acaso. e (a) Qual ´ a probabilidade de o componente retirado ser defeituoso? e Solu¸˜o: ca Seja D o evento “componente defeituoso” e seja Bi o evento “componente da i-´sima e caixa”. Queremos P [D]. Assim, P [D] = P [D|B1 ]P [B1 ] + P [D|B2 ]P [B2 ] + P [D|B3]P [B3 ] + P [D|B4]P [B4 ]. 100 1 200 1 100 1 100 1 E, P [D] = × + × + × + × = 0, 1625. 2000 4 500 4 1000 4 1000 4 (b) Examinamos o componente selecionado e comprovamos que ´ defeituoso. Qual ´ a probe e abilidade de ser da caixa 2? Solu¸˜o: ca 200 1 × P [D|B2 ]P [B2 ] = 500 4 = 0, 615. P [B2 |D] = P [D] 0, 1625 13
  • 15. 2.7 Eventos independentes Se o conhecimento do evento B n˜o altera a probabilidade do evento A , dizemos que o a evento A ´ independente do evento B. e P [A ∩ B] Temos, P [A] = P [A|B] = . Portanto, dizemos que A e B s˜o eventos indepena P [B] dentes se P [A ∩ B] = P [A]P [B]. Observamos que se A e B s˜o eventos independentes ent˜o P [A|B] = P [A] e P [B|A] = P [B]. a a Exemplo: Uma bola ´ selecionada de uma urna contendo duas bolas pretas numeradas (1 e 2) e duas e bolas brancas numeradas (3 e 4 ). Considere os seguintes eventos: A: “bola preta selecionada” B: “n´ mero par selecionado” u C: “n´ mero da bola maior que 2 (dois)” u (a) Verifique se os eventos A e B s˜o independentes. a (b) Verifique se os eventos A e C s˜o independentes. a Solu¸˜o: ca 1 1 (a) P [A] = P [B] = , P [A ∩ B] = , P [A ∩ B] = P [A]P [B] . 2 4 Logo, os eventos A e B s˜o independentes. a (b) P [A ∩ C] = P [∅] = 0 = P [A] = 0, 5 . Portanto, os eventos A e C n˜o s˜o independentes. a a OBS: Se dois eventos tˆm probabilidade n˜o-nula e s˜o mutuamente exclusivos ent˜o eles n˜o e a a a a podem ser independentes. Prove isso! 2.8 A lei de probabilidade binomial Considere a realiza¸˜o de um experimento e a verifica¸˜o de um evento, digamos A. Dizemos ca ca que o resultado da chamada tentativa de Bernouilli ´ um sucesso se A ocorre e uma falha caso e contr´rio. Estamos interessados em encontrar a probabilidade de k sucessos em n repeti¸˜es a co independentes de tentativas de Bernouilli. 14
  • 16. Teorema: A probabilidade de k sucessos em n tentativas (independentes) de Bernouilli ´ dada pela lei e de probabilidade binomial k pn (k) = Cn pk (1 − p)n−k , k = 0, . . . , n sendo p a probabilidade de um sucesso e pn (k) a probabilidade de k sucessos em n tentativas n! k e Cn = ´ o coeficiente binomial. e k!(n − k)! Exemplo: Suponha que uma moeda seja lan¸ada trˆs vezes. Se admitirmos que os lan¸amentos s˜o inc e c a dependentes e a probabilidade de se obter cara, em um lan¸amento, ´ p, ent˜o as probabilidades c e a da sequˆncia de caras e coroas ´: e e 3 P [trˆs caras] = C3 p3 (1 − p)0 = p3 e 2 P [duas caras e uma coroa] = C3 p2 (1 − p)1 = 3p2 (1 − p) 1 P [duas coroas e uma cara] = C3 p1 (1 − p)2 = 3p(1 − p)2 0 P [trˆs coroas] = C3 p0 (1 − p)3 = (1 − p)3 e 15
  • 17. Chapter 3 Vari´veis Aleat´rias a o 3.1 Defini¸˜o ca Uma vari´vel aleat´ria X ´ uma fun¸˜o que associa um n´ mero real X(ξ) a cada resultado a o e ca u ξ do espa¸o amostral de um experimento aleat´rio. c o O espa¸o amostral S ´ o dom´ c e ınio da vari´vel aleat´ria e o conjunto SX de todos os valores a o obtidos para X ´ a imagem da vari´vel aleat´ria (SX ⊂ R). e a o Assim, X : S −→ R ξ −→ X(ξ) . Exemplo: Considere o seguinte experimento: “lan¸amento de uma moeda trˆs vezes e anotar a seq¨ˆncia de caras e coroas obtida”. c e ue Temos, S = {ccc, cck, ckc, ckk, kcc, kck, kkc, kkk}. Seja X o n´ mero de caras obtidas nos trˆs lan¸amentos. u e c Temos, ξ : ccc cck ckc ckk kcc kck kkc kkk X: 3 2 2 1 2 1 1 0 Portanto, X ´ uma vari´vel aleat´ria com valores em SX = {0, 1, 2, 3}. e a o 3.2 Fun¸˜o distribui¸˜o de probabilidade ca ca A fun¸˜o distribui¸˜o de probabilidade (F.D.P.), tamb´m chamada de fun¸˜o distribui¸˜o ca ca e ca ca cumulativa, de uma vari´vel aleat´ria X, ´ definida como a probabilidade do evento {X ≤ x}. a o e Assim, FX (x) = P [X ≤ x] , x ∈ R. 16
  • 18. Propriedades: (i) 0 ≤ FX (x) ≤ 1 (ii) lim FX (x) = 1 x→+∞ (iii) lim FX (x) = 0 x→−∞ (iv) FX ´ n˜o-decrescente e a (v) FX ´ cont´ e ınua ` direita a (vi) P [a < X ≤ b] = FX (b) − FX (a). OBS: {X ≤ a} ∪ {a < X ≤ b} = {X ≤ b}. Logo, FX (a) + P [a < X ≤ b] = FX (b) e P [a < X ≤ b] = FX (b) − FX (a). (vii) P [X = b] = FX (b) − FX (b− ) (viii) P [a ≤ X ≤ b] = FX (b) − FX (a− ) OBS: Se FX ´ cont´ e ınua ent˜o a P [a ≤ X ≤ b] = P [a < X < b] = P [a ≤ X < b] = P [a < X ≤ b]. (ix) P [X > x] = 1 − FX (x) OBS: Definimos fun¸˜o de massa de probabilidade (FMP) de X, pX , por pX (xk ) = P [X = xk ]. ca Exemplos: (a) Considere o lan¸amento de uma moeda trˆs vezes. Seja X a vari´vel aleat´ria que c e a o associa o resultado com o n´ mero de caras obtido. Encontre a express˜o da fun¸˜o distribui¸˜o u a ca ca de probabilidade FX . Solu¸˜o: ca A defini¸˜o da vari´vel aleat´ria X ´ dada por: ca a o e ξ −→ X(ξ) ccc −→ 3 cck −→ 2 ckc −→ 2 ckk −→ 1 kcc −→ 2 kck −→ 1 kkc −→ 1 kkk −→ 0 17
  • 19. 3 3 1 1 Portanto, P [X = 0] = ; P [X = 1] = ; P [X = 2] = ; P [X = 3] = . 8 8 8 8 Assim, a fun¸˜o distribui¸˜o de probabilidade FX ´ definida por: ca ca e   0, x<0       1   , 0≤x<1   8       4 1 FX (x) = = , 1≤x<2  8 2      7    , 2≤x<3   8       1, x≥3 Podemos escrever 3 3 1 1 FX (x) = 0 + u(x) + u(x − 1) + u(x − 2) + u(x − 3) 8 8 8 8 ou FX (x) = pX (0)u(x) + pX (1)u(x − 1) + pX (2)u(x − 2) + pX (3)u(x − 3). sendo u a fun¸˜o degrau unit´rio definida por u(x) = ca a 0, x<0 1, x≥0 (b) Seja T o tempo de transmiss˜o de uma mensagem atrav´s de um sistema de comua e nica¸˜o. Considere que T obedece ` seguinte lei de probabilidade: ca a P [T > t] = e−λt , λ > 0 , t ≥ 0. Tamb´m, P [T ≤ t] = 0 , t < 0. e (a) Encontre FT (t). (b) Encontre P 1 2 <T ≤ . λ λ Solu¸˜o: ca (a) FT (t) = P [T ≤ t] = (b) P 1 2 <T ≤ = FT λ λ 0, t<0 1 − P [T > t] = 1 − e−λt , t ≥ 0 . 2 λ − FT 1 λ = (1 − e−2 ) − (1 − e−1 ) ≃ 0, 233. 18
  • 20. 3.3 Tipos de vari´veis aleat´rias a o 3.3.1 Vari´vel aleat´ria discreta a o A F.D.P. de uma vari´vel aleat´ria discreta pode ser escrita na forma a o K FX (x) = k=0 P [X = xk ]u(x − xk ) sendo K ∈ N. Exemplo: Uma fonte produz dois tipos de mensagens: M1 , com probabilidade p de ocorrer e M2 , com probabilidade 1 − p. Seja X a vari´vel aleat´ria definida por a o X(ξ) = 0 , ξ = M1 1 , ξ = M2 . Encontre a express˜o de FX (x). a Solu¸˜o: ca   0, x<0 p, 0≤x<1 FX (x) =  1, x≥1 Assim, FX (x) = P [X = 0]u(x) + P [X = 1]u(x − 1) = pu(x) + (1 − p)u(x − 1) . 3.3.2 Vari´vel aleat´ria cont´ a o ınua Uma vari´vel aleat´ria cont´ a o ınua X tem F.D.P. (FX ) cont´ ınua. OBS: P [X = x] = 0 , ∀x. Exemplo: Seja X a medida de tens˜o de ru´ em um determinado ponto de um circuito com as a ıdo seguintes probabilidades: P [| X |≤ V ] = 1 e P [| X |> V ] = 0. Encontre a express˜o da F.D.P. FX da vari´vel aleat´ria X, considerando que as probabilia a o dades das vari´vel X s˜o uniformemente distribu´ a a ıdas no intervalo [−V, V ]. Solu¸˜o: ca 19
  • 21. Se x < −V ⇒ P [X ≤ x] = 0 x Se −V ≤ x ≤ V ⇒ P [X ≤ x] = V −V 1 x+V dt = 2V 2V 1 Se x > V ⇒ P [X ≤ x] = dt = 1 −V 2V Assim,   0 , x < −V  x+V FX (x) = , −V ≤ x ≤ V  2V  1, x>V . 3.3.3 Vari´vel aleat´ria mista a o Uma vari´vel aleat´ria mista tem F.D.P. descont´ a o ınua em um conjunto finito de pontos e cresce continuamente em pelo menos um intervalo. Exemplo: Seja X a medida de tens˜o de ru´ em um determinado ponto de um circuito, com as a ıdo seguintes probabilidades: 1 3 P [X = −V ] = P [X = V ] = , P [| X |< V ] = e P [| X |> V ] = 0. 8 4 Escreva a express˜o da F.D.P. (FX ) da vari´vel aleat´ria X, considerando que a vari´vel a a o a aleat´ria X ´ distribu´ uniformemente em (−V, V ). o e ıda Solu¸˜o: ca Se x < −V ⇒ FX (x) = 0. 1 Se x = −V ⇒ FX (x) = P [X ≤ x] = . 8 x 1 3 3 1 dt = (x + V ) + . Se −V < x < V ⇒ FX (x) = + 8 8V 8 −V 8V 7 Se x = V ⇒ FX (x) = . 8 Se x > V ⇒ FX (x) = 1. Assim,   0 , x < −V   3  1   x + , −V ≤ x < V 8V 2 FX (x) =  7 , x=V    8   1, x≥V 20
  • 22. OBS: (i) Para v.a. cont´ ınuas: FX (x− ) = FX (x). (ii) Para v.a. discretas: FX (xi ) − FX (x− ) = P [X = xi ]. i 3.4 Fun¸˜o densidade de probabilidade ca Seja X uma vari´vel aleat´ria cont´ a o ınua com F.D.P. FX . Podemos escrever FX (x + ∆x) − FX (x) ∆x . ∆x ′ Para ∆x “pequeno”, temos P [x < X ≤ x + ∆x] ≃ FX (x) ∆x. P [x < X ≤ x + ∆x] = FX (x + ∆x) − FX (x) = Logo, de modo informal, podemos dizer que a probabilidade de X estar pr´ximo de x ´ o e ′ FX (x)∆x. Definimos, ent˜o, a densidade de probabilidade da vari´vel aleat´ria X, denotada por fX , a a o pela equa¸˜o: ca ′ fX (x) = FX (x) . Tamb´m, de maneira informal, podemos interpretar a densidade de probabilidade da vari´vel e a aleat´ria X como a quantidade de probabilidade por unidade de medida. o Propriedades: (i) fX (x) ≥ 0. b (ii) P [a ≤ X ≤ b] = fX (x)dx. a x (iii) FX (x) = fX (t)dt. −∞ +∞ (iv) fX (t)dt = 1. −∞ Exemplos: (a) A f.d.p. de uma vari´vel aleat´ria X ´ dada por a o e fX (x) = 1 , a≤x≤b b−a 0, x<aex>b sendo a , b ∈ R. Encontre FX (x). 21
  • 23. Solu¸˜o: ca Se x < a ⇒ FX (x) = 0 . x Se a ≤ x ≤ b ⇒ FX (x) = Se x > b ⇒ FX (x) = 1 . a 1 x−a dt = . b−a b−a Assim,   0, x<a  x−a , a≤x≤b FX (x) =  b−a  1 , x > b. (b) Seja X uma vari´vel aleat´ria com fun¸˜o densidade de probabilidade fX definida por: a o ca   A(x + 5) , −5 ≤ x ≤ −4 A , −4 < x < 4 fX (x) =  −A(x − 5) , 4 ≤ x ≤ 5 Sendo A uma constante. (i) Fa¸a um esbo¸o do gr´fico de fX . c c a (ii) Determine o valor da constante A. (iii) Determine a express˜o da Fun¸˜o Distribui¸˜o de Probabilidade da vari´vel aleat´ria X. a ca ca a o (iv) Fa¸a um esbo¸o do gr´fico de FX . c c a (v) Determine a probabilidade P [X > 4]. OBS: Quando FX n˜o ´ cont´ a e ınua, podemos estender a defini¸˜o de f.d.p. usando a distribui¸˜o ca ca delta de Dirac, denotada por δ. d Usamos o fato de que, no sentido das distribui¸˜es, co [u(x)] = δ(x), sendo u a distribui¸˜o ca dx degrau unit´rio e δ a distribui¸˜o delta de Dirac. a ca Assim, se X ´ uma vari´vel aleat´ria discreta, temos e a o FX (x) = k P [X = xk ]u(x − xk ) e fX (x) = k P [X = xk ]δ(x − xk ). 22
  • 24. 3.5 3.5.1 Exemplos de vari´veis aleat´rias a o Vari´veis aleat´rias discretas a o Vari´vel aleat´ria de Bernouilli a o Seja A um evento relacionado aos resultados de algum experimento aleat´rio. A fun¸˜o o ca indicatriz do evento A, denotada por IA , ´ definida por: e 0 , se ξ ∈ A / 1 , se ξ ∈ A . IA (ξ) = Definimos uma vari´vel aleat´ria X = IA e chamamos essa vari´vel aleat´ria de vari´vel a o a o a aleat´ria de Bernouilli. Observamos que SX = {0, 1}. o Escolhendo, por exemplo P [X = 0] = p e P [X = 1] = 1 − p. temos FX (x) = pu(x) + (1 − p)u(x − 1) ⇒ fX (x) = pδ(x) + (1 − p)δ(x − 1). Vari´vel aleat´ria binomial a o Considere que um experimento aleat´rio seja repetido n vezes. Considere A um evento, ξj o o resultado para cada repeti¸˜o do experimento; isto ´, j = 1, . . . , n. SEja X o n´ mero de vezes ca e u que ξk ∈ A. Portanto, X ´ uma vari´vel aleat´ria com SX = {0, 1, . . . , n}. e a o Considerando Ij a fun¸˜o indicatriz para o evento A na j-´sima tentativa, temos X = ca e I1 + I2 + . . . + In . A vari´vel aleat´ria X ´ chamada de vari´vel aleat´ria binomial. a o e a o n pk (1 − p)n−k , k = 0, . . . , n., k sendo P [X = k] a probabilidade de se obter k sucessos em n tentativas. Pelo Teorema Binominal, sabemos que P [X = k] = Temos, n FX (x) = k=0 e n fX (x) = k=0 n k pk (1 − p)n−k u(x − k) n k pk (1 − p)n−k δ(x − k). Essa vari´vel aleat´ria surge em aplica¸˜es onde h´ apenas dois tipos de resultados para a o co a cada experimento, por exemplo, cara/coroa, certo/errado, bom/defeituoso, etc. 23
  • 25. Vari´vel aleat´ria geom´trica a o e Seja X a vari´vel aleat´ria correspondente ao n´ mero de tentativas de um experimento at´ a o u e a ocorrˆncia de um sucesso. A vari´vel aleat´ria X ´ chamada vari´vel aleat´ria geom´trica e e a o e a o e SX = {1, 2, . . .}. Temos, P [X = k] = (1 − p)k−1 p , k = 1, 2, . . . sendo p a probabilidade de sucesso em cada tentativa (chamada de tentativa de Bernouilli). Temos, +∞ FX (x) = k=1 (1 − p)k−1pu(x − k) e +∞ fX (x) = k=1 (1 − p)k−1 pδ(x − k). Vari´vel aleat´ria de Poisson a o A vari´vel aleat´ria de Poisson X ´ definida por a o e P [X = k] = αk −α e , k = 0, 1, 2, . . . , sendo α uma constante. k! Temos, +∞ FX (x) = k=0 αk −α e u(x − k) ⇒ fX (x) = k! +∞ k=0 αk −α e δ(x − k). k! OBS: Se n ´ grande, p pequeno e α = np, podemos usar a aproxima¸˜o e ca n k 3.5.2 pk (1 − p)n−k ≃ αk −α e . k! Vari´veis aleat´rias cont´ a o ınuas Vari´vel aleat´ria uniforme a o A f.d.p. de uma vari´vel aleat´ria uniforme ´ dada por a o e fX (x) = 1 , a≤x≤b b−a 0 , x < a ou x > b sendo a, b ∈ R e 24
  • 26.   0, x<a  x−a , a≤x≤b FX (x) =  b−a  1 , x > b. Essa vari´vel aleat´ria aparece quanto todos os valores na reta real, no intervalo [a, b], s˜o a o a igualmente prov´veis. a Vari´vel aleat´ria exponencial a o A f.d.p. da vari´vel aleat´ria exponencial ´ definida por a o e fX (x) = 0, x<0 ⇒ FX (x) = λe−λx , x ≥ 0 0, x<0 1 − e−λx , x ≥ 0 . Sendo λ um n´ mero real. u Essa vari´vel aleat´ria aparecena modelagem do intervalo de tempo entre a ocorrˆncia de a o e eventos como, por exemplo, a demanda para conex˜o de chamadas telefˆnicas. a o Vari´vel aleat´ria gaussiana a o A f.d.p. de uma vari´vel aleat´ria gaussiana ´ definida por a o e fX (x) = √ (x−m)2 1 e− 2σ2 , x ∈ R , 2πσ Sendo m e σ n´ meros reais. u Para calcular a F.D.P. da vari´vel aleat´ria gaussiana X, consideremos a fun¸˜o Φ definida a o ca por: x t2 1 Φ(x) = √ e− 2 dt . 2π −∞ Observamos que a fun¸˜o Φ ´ a F.D.P. da vari´vel aleat´ria gaussiana para m = 0 e σ = 1. ca e a o Temos, ent˜o, que a F.D.P. da vari´vel aleat´ria gaussiana ´ dada por a a o e FX (x) = Φ x−m σ . Definindo, ainda, a fun¸˜o erf por ca 1 erf (x) = √ 2π Podemos escrever 0 1 1 t2 Φ(x) = √ e− 2 dt + √ 2π −∞ 2π x t2 e− 2 dt = 0 25 x t2 e− 2 dt 0 1 1 +√ 2 2π x t2 e− 2 dt = 0 1 + erf (x). 2
  • 27. Logo, Φ x−m σ = 1 + erf 2 x−m σ . +∞ t2 1 e− 2 dt. Ou usamos, Q(x) = 1 − Φ(x) = √ 2π x Resumindo, se X ´ a vari´vel aleat´ria gaussiana de f.d.p. fX definida por e a o fX (x) = √ (x−m)2 1 e− 2σ2 , x ∈ R , 2πσ ent˜o sua F.D.P. FX ´ definida por a e FX (x) = 1 + erf 2 x−m σ . OBS.: (a) Alguns autores definem ainda a fun¸˜o Q por Q(x) = 1 − Φ(x) ca (b) A fun¸˜o erf ´ ´ ca e ımpar; isto ´, erf (−x) = −erf (x). Devemos observar tamb´m que h´ e e a outras defini¸˜es, dadas por outros autores, para a fun¸ao erf . co c˜ Exerc´ ıcio: Esboce o gr´fico da fun¸˜o erf . a ca H´ v´rias outras vari´veis aleat´rias igualmente importantes, dependendo da ´rea de aplica¸˜o, a a a o a ca como, por exemplo, as vari´veis aleat´rias de Rayleigh, RICE, Nakagami, Gamma e outras. E, a o ainda, vari´veis aleat´rias provenientes de vari´veis aleat´rias conhecidas, como a lognormal e a o a o a logRayleigh. Discutiremos algumas dessas vari´veis aleat´rias nos exerc´ a o ıcios e nos cap´ ıtulos seguintes. 26
  • 28. Chapter 4 Vetores de vari´veis aleat´rias a o 4.1 Defini¸˜o ca Um vetor de vari´veis aleat´rias (ou um vetor aleat´rio) X ´ uma fun¸˜o (vetorial) que a o o e ca associa a cada resultado ξ do espa¸o amostral S um vetor X(ξ). c Exemplos: (a) Considere o experimento de selecionar o nome de um estudante de uma urna. Seja ξ o resultado deste experimento. Definimos: A(ξ) = altura do estudante; P (ξ) = peso do estudante; I(ξ) = idade do estudante . O vetor X = (A(ξ), P (ξ), I(ξ)) ´ um vetor de vari´veis aleat´rias e, portanto, um vetor e a o aleat´rio. o (b) Considere ξ o registro de tens˜o de ru´ em um ponto de um circuito, durante um a ıdo determinado intervalo de tempo. Portanto, ξ = fξ (t). Consideremos a vari´vel aleat´ria Xk = fξ (kT ), sendo k = 1, 2, . . . , N. a o O vetor X = (X1 , X2 , . . . , Xn ) ´, portanto, um vetor aleat´rio. e o 4.2 Eventos associados a vetores aleat´rios o O conjunto {X ≤ x} representa, de forma compacta, o conjunto {X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn } . Esse conjunto ´ um evento para todo x = (x1 , x2 , . . . , xn ) ∈ Rn . e 27
  • 29. 4.3 Independˆncia e Dizemos que as vari´veis aleat´rias X1 , X2 , . . . , Xn s˜o independentes se a o a P [X1 ∈ A1 , . . . , Xn ∈ An ] = P [X1 ∈ A1 ] . . . P [Xn ∈ An ] onde Ak ´ um evento que envolve Xk somente. e 4.4 4.4.1 Fun¸˜o distribui¸˜o de probabilidade conjunta ca ca Defini¸˜o ca A Fun¸˜o Distribui¸˜o de Probabilidade associada a um vetor aleat´rio X, chamada de ca ca o F.D.P. conjunta, ´ definida por: e FX : Rn −→ R x −→ FX (x) = P [X ≤ x] onde FX (x) = P [X ≤ x] = P [X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn ] . Podemos representar FX (x) por FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ). Consideremos o caso particular, bidimensional, com a F.D.P. conjunta das vari´veis aleat´rias a o X e Y , FXY , dada por FXY (x, y) = P [X ≤ x e Y ≤ y] ou podemos escrever FXY (x, y) = P [X ≤ x ∩ Y ≤ y]. Exemplo: Bits s˜o transmitidos atrav´s de um canal de comunica¸˜es com probabilidades de erro a e co dadas de acordo com o esquema a seguir: (i) Se o bit 1 for enviado, a probabilidade de o bit 1 ser recebido ´ p e, consequentemente, e a probabilidade de o bit 0 ser recebido ´ 1 − p. e (ii) Se o bit 0 for enviado, a probabilidade de o bit 0 ser recebido ´ p e, consequentemente, e a probabilidae de o bit 1 ser recebido ´ 1 − p. e Consideremos as vari´veis aleat´rias X, representando os bits enviados, e Y , representando a o 1 os bits recebidos. Tamb´m, tomemos P [X = 0] = P [X = 1] = . e 2 Temos, P [Y = 0|X = 0] = p P [Y = 1|X = 0] = 1 − p P [Y = 0|X = 1] = 1 − p 28
  • 30. P [Y = 1|X = 1] = p Lembremos que, pela regra de Bayes, P [A ∩ B] = P [A|B]P [B]. Assim, P [Y = 0 e X = 0] = P [Y = 0|X = 0]P [X = 0] = p 2 P [Y = 1 e X = 0] = P [Y = 1|X = 0]P [X = 0] = 1−p 2 1−p 2 p P [Y = 1 e X = 1] = P [Y = 1|X = 1]P [X = 1] = 2 P [X = 1 e Y = 0] = P [Y = 0|X = 1]P [X = 1] = A F.D.P. FXY ser´, ent˜o, definida por: a a Se x > 1 e y > 1 =⇒ FXY (x, y) = 1. Se x < 0 e y ∈ R =⇒ FXY (x, y) = 0. Se y < 0 e y ∈ R =⇒ FXY (x, y) = 0. Se x > 1 e y < 1 =⇒ FXY (x, y) = P [X = 1 ∩ Y = 0] + P [X = 0 ∩ Y = 0] = 1−p p 1 + = . 2 2 2 Se x > 1 e y ≥ 1 =⇒ FXY (x, y) = 1. 1 Se x < 1 e y ≥ 1 =⇒ FXY (x, y) = . 2 p Se x < 1 e y < 1 =⇒ FXY (x, y) = . 2 4.4.2 Propriedades da F.D.P. conjunta Consideremos o caso particular para a F.D.P. conjunta de duas vari´veis aleat´rias, digamos a o X e Y . Temos, (a) FXY ´ n˜o-decrescente; isto ´, se x1 ≥ x2 e y1 ≥ y2 ⇒ FXY (x1 , y1 ) ≥ FXY (x2 , y2 ). e a e (b) FXY (−∞, y1) = FXY (x1 , −∞) = 0 (c) FXY (+∞, +∞) = 1 (d) FX (x) = FXY (x, +∞) = P [X ≤ x, y < +∞] = P [X ≤ x] (e) FY (y) = FXY (+∞, y) = P [Y ≤ y] 29
  • 31. 4.5 Fun¸˜o densidade de probabilidade conjunta ca 4.5.1 Defini¸˜o ca Seja X um vetor aleat´rio de dimens˜o n com F.D.P. FX diferenci´vel. Definimos a f.d.p. o a a conjunta fX do vetor aleat´rio X por o fX (x) = fX1 ...Xn (x1 , . . . , xn ) = 4.5.2 ∂n FX ...X (x1 , . . . , xn ) . ∂x1 . . . ∂xn 1 n Propriedades da f.d.p. conjunta Consideremos, primeiro, o caso particular em que X ´ um vetor aleat´rio bidimensional, e o digamos de coordenadas X e Y . Temos, ent˜o, os seguintes resultados: a +∞ +∞ (i) fXY (x, y)dxdy = 1 −∞ −∞ (ii) P [(X, Y ) ∈ Ω] = fXY (x, y)dxdy Ω x y −∞ −∞ (iii) FXY (x, y) = (iv) fXY (x, y) = fXY (u, v)dvdu ∂ 2 FXY (x, y) ∂x∂y +∞ (v) fX (x) = fXY (x, v)dv −∞ +∞ (vi) fY (y) = fXY (u, y)du −∞ OBS: fX e fY s˜o chamadas, nesse caso, de fun¸˜es densidade de probabilidade marginais. a co Generalizando, para um vetor com n coordenadas, temos: +∞ (i) +∞ ... −∞ fX1 ...Xn (x1 , . . . , xn )dx1 . . . dxn = 1 −∞ (ii) P [X ∈ Ω] = Ω fX (x)dx x1 (iii) FX1 ...Xn (x1 , . . . , xn ) = xn ... −∞ +∞ (iv) +∞ xi +∞ ... −∞ fX1 ...Xn (u1 , . . . , un )dun . . . du1 −∞ +∞ ... −∞ −∞ −∞ xi fX1 ...Xn (u1 , . . . , un )du1 . . . dun = FXi (xi ) = −∞ fXi (ui )dui −∞ 30
  • 32. +∞ (v) fXi (xi ) = +∞ ... −∞ fX1 ...Xn (u1 , . . . , ui−1, xi , ui+1, . . . , un )du1 . . . dui−1dui+1 . . . dun −∞ *consideramos n − 1 integrais. Caso de vetor aleat´rio discreto o Consideremos um vetor aleat´rio discreto bidimensional X = (X, Y ). Temos, o (i) P [X ∈ Ω] = fXY (xj , yk ) , (xj , yk ) ∈ Ω +∞ +∞ (ii) fXY (xj , yk ) = 1 j=1 k=1 +∞ (iii) fX (xj ) = fXY (xj , yk ) k=1 +∞ (iv) fY (yk ) = fXY (xj , yk ) j=1 Exemplo: (a) Um trem chega a uma esta¸˜o e p´ra por cinco minutos antes de prosseguir. O instante ca a de chegada do trem, contado a partir das 9 h, em minuto, pode ser modelado pela v.a. T , com f.d.p. fT (t) = 0, 15e−0,15t u(t). (i) Calcule a probabilidade de o trem chegar na esta¸˜o at´ as 9 : 20h. ca e Solu¸˜o: ca 20 20 P [T < 20] = fT (t)dt = −∞ 0 0, 15e−0,15t dt ≃ 0, 95 (ii) Determine o maior atraso que um usu´rio pode ter de modo que a probabilidade de a ele pegar o trem seja maior que 0, 5. Solu¸˜o: ca +∞ P [T > a − 5] = fT (t)dt > 0, 5 =⇒ a < 9, 621 a−5 (iii) Considere que o instante de chegada de um estudante ` esta¸˜o (contado a partir a ca das 9h, em minuto) ´ uma v.a. X e que a f.d.p. conjunta de X e T ´: e e fXT (x, t) = 0, 06e−(0,15t+0,4x) u(t)u(x) Calcule a probabilidade de o estudante pegar o trem. 31
  • 33. Solu¸˜o: ca P [T > X − 5] = P [X < T + 5] = P [(X, T ) ∈ A] = +∞ 0 fXY (x, y)dxdy = A t+5 0 0, 06e−(0,15t+0,4x) dxdt ≃ 0, 946. (b) O sinal recebido em uma transmiss˜o via r´dio pode ser modelado por a a r(t) = Acos(ω0 t + Θ) , A > 0 ou r(t) = Xcosω0 t + Y senω0 t sendo X e Y vari´veis aleat´rias com f.d.p. conjunta fXY definida por fXY (x, y) = a o 1 − (x2 +y2) e 2σ2 . 2πσ 2 (i) Determine a probabilidade de a amplitude A ser maior que 1. Solu¸˜o: ca √ P [A > 1] = P [ X 2 + Y 2 > 1] = P [X 2+Y 2 > 1] = 2π 0 1 +∞ 1 1 − r22 e 2σ rdrdθ = 2πσ 2 . . . = e− 2σ2 (ii) Encontre a express˜o de fX (x). a Solu¸˜o: ca +∞ fX (x) = −∞ 4.6 4.6.1 +∞ fXY (x, v)dv = −∞ x2 1 − x2 +v2 1 e 2σ2 dy = . . . = √ e− 2σ2 2πσ 2 2πσ Fun¸˜es distribui¸˜o e densidade condicionais co ca Defini¸˜o ca A fun¸˜o distribui¸˜o de probabilidade de uma v.a. X, condicionada ` ocorrˆncia de um ca ca a e evento M ´ definida por e FX|M (x) = P [X ≤ x|M] = P [X ≤ x ∩ M] ; P [M] = 0 P [M] d Se FX|M ´ diferenci´vel =⇒ fX|M (x) = e a FX|M (x). dx O evento M tamb´m poderia ser descrito em termos da v.a. Y . e Assim, M = {Y ≤ y} = {ξ ∈ Ω|Y (ξ) ≤ y}. FXY (x, y) E, FX|Y ≤y (x) = . Pois, FY (y) P [X ≤ x ∩ Y ≤ y] FX|Y ≤y (x) = P [X ≤ x|Y ≤ y] = . P [Y ≤ y] d FXY (x, y) Tamb´m, fX|Y ≤y (x) = dx e . FY (y) 32
  • 34. Poder´ ıamos tentar definir FX|Y =y (x) = P [X ≤ x ∩ Y = y] . P [Y = y] Por´m, P [Y = y] = 0. e Dessa forma, definimos FX|Y =y por um processo de limite. Com isso, chegamos ao resultado: x fXY (u, y)du −∞ FX|Y =y (x) = fY (y) e fX|Y (x) = fx|Y =y (x) = Analogamente, fY |X (y) = fY |X=x (y) = fXY (x, y) fY (y) fXY (x, y) . fX (x) Resumo: • FX|Y ≤y (x) = FXY (x, y) FY (y) x fXY (u, y) du • FX|Y (x) = FX|Y =y (x) = • fX|Y (x) = fX|Y =y (x) = −∞ fY (y) fXY (x, y) fY (y) y fXY (x, v) dv • FY |X (y) = FY |X=x (y) = • fY |X (x) = fY |X=x (y) = 4.6.2 −∞ fX (x) fXY (x, y) fX (x) Independˆncia entre duas vari´veis aleat´rias e a o Duas vari´veis aleat´rias X e Y s˜o independentes se qualquer evento A1 definido em termos a o a de X ´ independente de qualquer evento A2 definido em termos de Y . e Isto ´, P [X ∈ A1 , Y ∈ A2 ] = P [X ∈ A1 ]P [Y ∈ A2 ]. e Podemos mostrar que as vari´veis aleat´rias X e Y s˜o independentes se, e s´ se, a o a o FXY (x, y) = FX (x)FY (y) para todos x e y. Se FX e FY s˜o diferenci´veis, ent˜o fXY (x, y) = fX (x)fY (y). a a a Observemos que, neste caso, fX|Y (x) = fX (x) e fY |X (x) = fY (y). 33
  • 35. Prova: Os eventos A e B s˜o independentes se P [AB] = P [A]P [B]. a Temos, FXY (x, y) = FX (x)FY (y) ou P [{X ≤ x} ∩ {Y ≤ y}] = P [{X ≤ x}]P [Y ≤ y]. E, ∂ 2 FXY (x, y) ∂ 2 [FX (x)FY (y)] ∂ ∂ fXY (x, y) = = = FX (x) FY (y) = fX (x)fY (y). ∂x∂y ∂x∂y ∂x ∂y Tamb´m, e FXY (x, y) FX (X|Y ≤ y) = = FX (x). FY (y) Conseq¨ entemente, fX (x|Y ≤ y) = fX (x) e fY (y|X ≤ x) = fY (y). u Generalizando, as vari´veis aleat´rias X1 , . . . , Xn s˜o independentes quando a o a n FX1 ...Xn (x1 , . . . , xn ) = FXi (xi ). i=1 E, no caso das fun¸˜es FXi serem diferenci´veis, temos co a n fX1 ...Xn (x1 , . . . , xn ) = fXi (xi ). i=1 34
  • 36. Exemplos: (a) Os valores da tens˜o de ru´ em um circuito, medidos em determinado ponto, em dois insa ıdo tantes, podem ser caracterizados por duas vari´veis aleat´rias X e Y com f.d.p. conjunta a o dada por: fXY (x, y) = 1 1 − 2 x2 +y2 σ2 e 2πσ 2 Determine: (a) fY (y) e fX (x) (f.d.p.’s marginais) (b) fY |X (y), concluindo sobre a independˆncia das vari´veis aleat´rias X e Y . e a o (c) Para σ = 1, a probabilidade de Y ser maior que 3. (d) Para os valores do item c), P [Y > 3|X = 1] (ii) Um painel controla as dura¸˜es X e Y de duas liga¸˜es telefˆnicas. Essas dura¸˜es podem co co o co ser modeladas por duas vari´veis aleat´rias com f.d.p. conjunta a o fXY (x, y) = 10e−(2x+5y) u(x)u(y) O painel indica o n´ mero de liga¸˜es (0, 1 ou 2) cuja dura¸˜o ultrapassa o valor T = 0, 5. u co ca Deste modo, a indica¸˜o do painel pode ser modelada como uma vari´vel aleat´ria Z ca a o definida da seguinte forma: • Z = 0, se nenhuma das liga¸˜es tem dura¸˜o maior que T co ca • Z = 1, se apenas uma das liga¸˜es tem dura¸˜o maior que T co ca • Z = 2, se as duas liga¸˜es tˆm dura¸˜o maior que T co e ca (a) Determine fX (x) e fY (y) e conclua sobre a independˆncia das vari´veis aleat´rias. e a o (b) Determine a express˜o de fZ (z) e de FZ (z). Esboce os gr´ficos de fZ e de FZ . a a (c) Dado que apenas uma das chamadas teve dura¸˜o maior que T , determine a probaca bilidade de que a dura¸˜o X da primeira chamada exceda T . ca (d) Dado que ambas as chamadas tiveram dura¸˜o superior a T , determine a probabilca idade de que a dura¸˜o Y da segunda chamada exceda o valor 1. ca Solu¸˜o: ca +∞ fXY (x, v)dv = 2e−2x . (a) fX (x) = −∞ Analogamente, fY (y) = 5e−5y . Assim, fXY (x, y) = fX (x)fY (y). Logo, X e Y s˜o vari´veis aleat´rias independentes. a a o 35
  • 37. 0,5 (b) P [Z = 0] = P [X < T, Y < T ] = P [Z = 2] = P [X > T, Y > T ] = 0,5 fXY (x, y)dxdy −∞ −∞ +∞ +∞ −2x −5y 2e 0,5 5e ≃ 0, 58. dxdy = 0, 03 0,5 P [Z = 1] = 1 − P [Z = 0] − P [Z = 2] = 0, 39 FZ (z) = 0, 58u(z) + 0, 39u(z − 1) + 0, 03u(z − 2) fZ (z) = 0, 58δ(z) + 0, 39δ(z − 1) + 0, 03δ(z − 2) P [X > 0, 5 e Y < 0, 5] P [X > 0, 5 e Z = 1] (c) P [X > 0, 5|Z = 1] = = = 0, 87 P [Z = 1] P [Z = 1] P [Y > 1 e Z = 2] P [Y > 1 e X > 0, 5] (d) P [Y > 1|Z = 2] = = = 0, 37 P [Z = 2] P [Z = 2] 36
  • 38. Chapter 5 Fun¸˜es de vari´veis aleat´rias co a o 5.1 Introdu¸˜o ca Seja X uma vari´vel aleat´ria e seja g uma fun¸˜o real de vari´vel real. A fun¸˜o definida a o ca a ca por Y = g(X) ´ tamb´m uma vari´vel aleat´ria. e e a o 5.2 Fun¸˜o densidade de probabilidade de Y = g(X) ca Temos, fY (y) = d d FY (y) = P [Y ≤ y]. dy dy Exemplos: (a) Seja Y uma vari´vel aleat´ria definida por Y = aX + b sendo a , b ∈ R, a = 0 e suponha a o que X tenha F.D.P. FX . Encontre express˜es para FY e para fY . o Solu¸˜o: ca Temos, FY (y) = P [Y ≤ y] = P [aX + b ≤ y] = P [aX ≤ y − b]. Se a > 0 ⇒ FY (y) = P [X ≤ y−b ] = FX a Se a < 0 ⇒ FY (y) = P [X ≥ b−y y−b ]=P X≥ = 1 − FX −a a Assim,    FX  y−b a Y −b , a>0 a FY (y) =   1 − FX Y − b , a < 0  a 37 y−b a
  • 39. dF du y−b dF = sendo u = . dy du dy a 1 y−b Logo, fY (y) = fX , a>0e a a E, fY = fY (y) = 1 fX −a Assim, fY (y) = y−b a , a < 0. 1 fX |a| y−b . a (b) Considere a vari´vel aleat´ria Y = X 2 sendo X uma vari´vel aleat´ria cont´ a o a o ınua. Ache a f.d.p. e a F.D.P. de Y , em termos da f.d.p. e da F.D.P. de X. Solu¸˜o: ca Temos, √ √ FY (y) = P [Y ≤ y] = P [X 2 ≤ y] = P [− y ≤ X ≤ y] . FY (y) = Assim, fY (y) = dFY dF du = . dy du dy   0 , y<0  √ √ FX ( y) − FX (− y) y ≥ 0 E,   0, y<0 √ √ fX ( y) fX (− y) fY (y) = + , y>0 √ √  2 y 2 y 38
  • 40. (c) Seja Y = cosX sendo X uma v.a. uniforme no intervalo [0, 2π]. Ache a f.d.p. e a F.D.P. de Y . Solu¸˜o: ca FY (y) = P [Y ≤ y] = P [cosX ≤ y] Se cosX ≤ y ⇒ arccos y ≤ X ≤ 2π − arccosy. Assim, P [cosX ≤ y] = P [X ≤ 2π − arccosy] − P [X ≤ arccosy]. Tamb´m, e fY (y) = fX (2π−arccosy) 1 π e 1 − y2 , −1 < y < 1 1 1− y2 −fX (arccosy) −1 1− y2 = 1 2π 1 1− y2 +   0 , y < −1  1 arcseny FY (y) = + , −1 ≤ y ≤ 1  2 π  1, y>1 1 2π 1 1 − y2 = (d) Considere X uma v.a. uniformemente distribu´ no intervalo [−c, c]. Seja Y uma v.a. ıda −2 definida por Y = X . Determine fY (y). Solu¸˜o: ca FY (y) = P [Y ≤ y] = P 1 ≤y . X2 Se y ≤ 0 ⇒ P 1 ≤ y = 0. X2 Se y > 0 ⇒ P 1 1 1 1 ≤ y = P X2 ≥ = P X ≥ √ + P X ≤ −√ 2 X y y y Mas,     E, c 1 dx = 1 P X≥√ = 1  y  0, √ ≥c  y √ 1/ y 2c 39 1 1 1 − √ , √ <c 2 2c y y
  • 41.     √ −1/ y  1 1  − 1 + 1 , − 1 > −c  √ √  dx , − √ > −c 1 2c y 2 y 2c y −c P X ≤ −√ = = 1 1   0 , − √ ≤ −c y  0 , − √ ≤ −c    y y Assim, E,  1  1− √ , y ≥ 1  1 1 c y c2 FY (y) = P X ≤ − √ + P X ≥ √ =  y y  0, y< 1 c2 fY (y) =    1 √ 2c( y)3 , y>   0, y< 1 c2 40 1 c2
  • 42. Chapter 6 Valor esperado, variˆncia e desvio a padr˜o de vari´veis aleat´rias a a o 6.1 Valor esperado (ou m´dia) de um v.a e Seja X uma v.a. discreta. Consideremos que X assume os valores {x1 , x2 , . . . , xk }. Suponha que a experiˆncia associada a esta v.a. tenha sido realizada N vezes e que n(xi ) e represente o n´ mero de vezes em que o evento {X = xi } ocorreu. u De acordo com o conceito de freq¨ˆncia relativa, temos ue n(xi ) , i = 1, . . . , k . N Assim, a m´dia aritm´tica dos N resultados da experiˆncia ´ dada por e e e e P [X = xi ] = k n(xi ) mX = xi = N i=1 k xi P [X = xi ] . i=1 No caso de vari´veis aleat´rias cont´ a o ınuas, temos +∞ mX = xfX (x)dx . −∞ Exemplo: (a) Seja X uma v.a. distribu´ uniformemente no intervalo [a, b]. Calcule mX . ıda Solu¸˜o: ca b mX = x a 1 a+b dx = . b−a 2 41
  • 43. (b) Seja X uma v.a. com f.d.p. gaussiana fX (x) = √ 2 1 (x−m) 1 e− 2 σ2 2πσ Calcume mX . Solu¸˜o: ca +∞ mX = −∞ 6.2 x√ 2 1 (x−m) 1 e− 2 σ2 dx = . . . = m 2πσ Variˆncia a Consideremos X uma vari´vel aleat´ria discreta. Suponha que X assuma os valores {x1 , x2 , . . . , xk }. a o Considere que a experiˆncia associada a esta v.a. tenha sido realizada N vezes e que n(xi ) e represente o n´ mero de vezes em que o evento {X = xi } ocorreu. u Assim, definimos a variˆncia de X por a P [X=xi ] k 2 σX = i=1 (xi − mX )2 n(xi ) N Observamos que a variˆncia de uma v.a. nada mais ´ do que a m´dia aritm´tica dos a e e e quadrados dos desvios (xi − mX ), em rela¸˜o ` m´dia, dos N resultados da experiˆncia. Isto ca a e e mostra que a variˆncia de uma v.a. mede sua dispers˜o em torno da m´dia. a a e No caso de X ser uma v.a. cont´ ınua, temos +∞ 2 σX = −∞ (x − mX )2 fX (x)dx Exemplos: (a) Calcule a variˆncia de uma v.a. X uniformemente distribu´ no intervalo [a, b]. a ıda Solu¸˜o: ca b 2 σX = a x− b+a 2 2 1 (b − a)2 dx = b−a 12 Obs: Se considerarmos duas vari´veis aleat´rias uniformes, a de menor variˆncia tem sua a o a f.d.p. mais concentrada em torno de sua m´dia. e 42
  • 44. (b) Calcule a variˆncia de uma v.a. gaussiana a fX (x) = √ (x−m)2 1 e− 2σ2 2πσ Solu¸˜o: ca 2 σX = √ 6.3 6.3.1 1 2πσ +∞ −∞ (x − m)2 e− (x−m)2 2σ 2 dx = σ 2 Momentos Momentos de ordem k Definimos o momento de ordem k de uma v.a. cont´ ınua X por +∞ E[X k ] = xk fX (x)dx . −∞ N e X ´ uma v.a. discreta ent˜o E[X k ] = e a xk P [X = xi ]. i i=1 OBS: Se k = 0 ⇒ E[X o ] = 1 e se k = 1 ⇒ E[X] = mX . 6.3.2 Momento central de ordem k Chama-se momento central de ordem k, de uma v.a. X, o valor esperado +∞ E[(X − mX )k ] = 6.3.3 (x − mX )k fX (x)dx . −∞ Valor esperado de um vetor aleat´rio o +∞ E[X] = mX = +∞ ... −∞ 43 −∞ xfX (x)dx .
  • 45. Exemplo: Considere o vetor aleat´rio X ∈ R2 com f.d.p. fX definida por o fX (x) = fX1 X2 (x1 , x2 ) = abe−(ax1 +bx2 ) u(x1 )u(x2 ) . Calcule E[X]. Solu¸˜o: ca +∞ mX = 6.4 +∞ (x1 , x2 )abe−(ax1 +bx2 ) dx1 dx2 = 0 0 1 1 , a b . Matriz Covariˆncia a Em analogia ` variˆncia de uma vari´vel aleat´ria real, definimos, para vetores aleat´rios, a a a o o a matriz covariˆncia: a +∞ ∆X = OBS: +∞ ... −∞ −∞ (x − mX )t (x − mX ) fX (x)dx ∆X = E[(X − mX )t (X − mX )] Exemplo: Seja X o vetor aleat´rio bidimensional com f.d.p. o fX (x) = fX1 X2 (x1 , x2 ) = 1 − 1 (5x2 +5x2 −8x1 x2 ) e 18 1 2 6π (i) Calcule mX (ii) Encontre ∆X . Solu¸˜o: ca (i) mX = 0 . (ii) Temos xt x = x2 x1 x2 1 . Assim, ∆X = x2 x1 x2 2 44 5 4 4 5 .
  • 46. 6.5 6.5.1 Momentos conjuntos Defini¸˜es co k k k (i) Os momentos conjuntos das vari´veis aleat´rias X1 , X2 , . . . , Xn s˜o definidos por E[X1 1 X2 2 . . . Xnn ] a o a e a ordem do momento conjunto ´ dada por k1 + k2 + . . . + kn . e (ii) Os momentos conjuntos de segunda ordem E[Xi Xj ] recebem o nome de correla¸˜o das ca vari´veis aleat´rias Xi e Xj . a o (iii) Os momentos conjuntos centrais das vari´veis aleat´rias X1 , X2 , . . . , Xn s˜o definidos a o a por E[(X1 − mX1 )k1 (X2 − mX2 )k2 . . . (Xn − mXn )kn ]. A soma k1 + k2 + . . . + kn ´ chamada ordem e do momento conjunto central. (iv) Os momentos conjuntos centrais de segunda ordem E[(Xi − mXi )(Xj − mXj )] recebem o nome de covariˆncia quando i = j e variˆncia quando i = j. a a (v) A matriz Covariˆncia de um vetor aleat´rio cont´m todos os momentos conjuntos cena o e trais de segunda ordem das componentes do vetor. Ela cont´m na sua diagonal principal as e variˆncias e os elementos fora da diagonal principal s˜o as covariˆncias. a a a Resumindo, temos, +∞ +∞ (i) Correla¸˜o: E[X1 X2 ] = ca (ii) Momentos conjuntos: x1 x2 fX1 X2 (x1 , x2 )dx1 dx2 −∞ k k De ordem k1 + k2 : E[X1 1 X2 2 ] = De ordem k1 + k2 + . . . + kn : k k k E[X1 1 X2 2 . . . Xnn ] = +∞ +∞ ... −∞ −∞ −∞ +∞ −∞ +∞ −∞ xk1 xk2 fX1 X2 (x1 , x2 )dx1 dx2 1 2 xk1 xk2 . . . xkn fX1 X2 ...Xn (x1 , x2 , . . . , xn )dx1 dx2 . . . dxn 1 2 n (iii) Covariˆncia: E[(Xi − mXi )(Xj − mXj )] a Se m = 0 ⇒ covariˆncia = correla¸˜o. a ca (iv) Variˆncia: E[(X − mX )2 ] a 6.5.2 Coeficiente de correla¸˜o ca Define-se coeficiente de correla¸˜o entre as vari´veis aleat´rias X e Y por ca a o ρXY = E[(X − mX )(Y − mY )] E[(X − mX )2 ]E[(Y − mY )2 ] Podemos mostrar que −1 ≤ ρXY ≤ 1. Vari´veis aleat´rias n˜o correlatas a o a Duas vari´veis aleat´rias X e Y s˜o ditas n˜o correlatas quando ocorre uma das seguintes a o a a condi¸˜es (equivalentes): co 45
  • 47. (i) ρXY = 0 (ii) E[XY ] = E[X]E[Y ] (iii) E[(X − mX )(Y − mY )] = 0 Obs: Se duas vari´veis aleat´rias s˜o independentes ent˜o elas s˜o n˜o-correlatas, mas a a o a a a a rec´ ıproca n˜o ´ verdadeira. a e Vari´veis aleat´rias ortogonais a o Duas vari´veis aleat´rias X e Y s˜o ortogonais quando E[XY ] = 0. a o a Exemplos: (a) Seja Y = acos(ωt + Θ), sendo a, ω e t constantes e Θ uma vari´vel aleat´ria uniforme em a o [0, 2π]. (i) Calcule E[Y ] (ii) Calcule E[Y 2 ] Solu¸˜o: ca 2π (i) E[Y ] = E[acos(ωt + Θ)] = acos(ωt + θ) 0 dθ =0 2π 2 (ii) E[Y 2 ] = . . . = a 2 (b) Sejam X e Y duas vari´veis aleat´rias definidas por X = cosΘ e Y = senΘ, sendo Θ uma a o vari´vel aleat´ria uniformemente distribu´ em [0, π]. a o ıda Determine E[X], E[Y ], E[XY ], E[X 2 ], E[Y 2 ] e E[X 2 Y 2 ]. 46
  • 48. Chapter 7 Processos Estoc´sticos a 7.1 Introdu¸˜o ca Considere um experimento aleat´rio especificado pelos resultados ξ de algum espa¸o amostral o c S, pelos eventos definidos em S e pelas probabilidades desses eventos. Suponha que para todo resultado ξ ∈ S, exista uma fun¸˜o X dada por X(t, ξ) para todo ca t pertencente a um intervalo I e ξ ∈ S. Para ξ fixo, X(t, ξ) ´ chamada de fun¸˜o amostra. Por outro lado, para cada t fixo, X(t, ξ) e ca ´ uma vari´vel aleat´ria. e a o Dessa forma, criamos uma fam´ indexada de vari´veis aleat´rias {X(t, ξ) , t ∈ I}. ılia a o Esta fam´ recebe o nome de Processo Estoc´stico (ou processo aleat´rio). Normalılia a o mente, denotamos o processo estoc´stico por X(t), omitindo o argumento ξ. a Um processo estoc´stico ´ dito discreto se o conjunto I dos ´ a e ındices for cont´vel. Quando a tratamos de processos estoc´sticos discretos usamos, normalmente, n para denotar o ´ a ındice e Xn para denotar o processo estoc´stico. a Se o conjunto I dos ´ ındices for cont´ ınuo ent˜o o processo estoc´stico ´ dito cont´ a a e ınuo. Processos estoc´sticos aparecem em sistemas de reconhecimento de fala, sistemas de proa cessamento de imagens, sistemas de filas, ru´ t´rmico nos terminais de um resistor e outros. ıdo e Exemplos: (a) Seq¨ˆncia bin´ria aleat´ria ue a o Seja ξ um n´ mero selecionado, ao acaso, do intervalo S = [0, 1] e seja b1 b2 . . . a expans˜o u a bin´ria de ξ. a +∞ Assim, ξ = i=1 bi 2−i , bi ∈ {0, 1}. Defina o processo estoc´stico Xn = X(n, ξ) por Xn = bn , n = 1, 2, . . ., onde bn ´ o n-´simo a e e n´ mero da expans˜o bin´ria de ξ. u a a 47
  • 49. (b) Sen´ides com amplitudes aleat´rias o o Seja ξ um n´ mero selecionado ao acaso do intervalo [−1, 1]. Defina o processo aleat´rio u o X(t, ξ) por X(t, ξ) = ξsen(2πt) , t ∈ R As amostras desse processo s˜o sen´ides com amplitude ξ. a o (c) Sen´ides com fase aleat´ria o o Seja ξ um n´ mero selecionado ao acaso do intervalo (−π, π) e seja Y (t, ξ) = cos(2πt + ξ). u As amostras do processo estoc´stico Y s˜o vers˜es de cos2πt deslocadas no tempo. a a o 7.2 Especifica¸˜o de um processo estoc´stico ca a Sejam X1 , X2 , . . . , Xk vari´veis aleat´rias obtidas pela amostragem do processo X(t, ξ) em a o t1 , t2 , . . . , tk . Assim, X1 = X(t1 , ξ), X2 = X(t2 , ξ), . . . , Xk = X(tk , ξ). Um processo estoc´stico ´ especificado pela cole¸˜o de fun¸˜es de distribui¸˜o de probabia e ca co ca lidade conjunta de k-´sima ordem: e FX1 X2 ...Xk (x1 , x2 , . . . , xk ) = P [X1 ≤ x1 , X2 ≤ x2 , . . . , Xk ≤ xk ] para todo k e qualquer escolha dos instantes t1 , t2 , . . . , tk . Se o processo estoc´stico for discreto, uma cole¸˜o de fun¸˜es de massa de probabilidade a ca co pode ser usada: fX1 X2 ...Xk (x1 , x2 , . . . , xk ) = P [X1 = x1 , X2 = x2 , . . . , Xk = xk ] Se o processo for cont´ ınuo ent˜o uma cole¸˜o de fun¸˜es densidade de probabilidade pode a ca co ser usada: fX1 X2 ...Xk (x1 , x2 , . . . , xk ) Exemplos: (a) Considere ξ um n´ mero selecionado do intervalo [0, 1] e escreva u n ξ= i=1 bi 2−i , bi ∈ {0, 1} Defina o processo X(n, ξ) = Xn = bn , sendo bn o n-´simo n´ mero da expans˜o bin´ria. e u a a Determine: (i) P [X(1, ξ) = 0] 48
  • 50. Solu¸˜o: ca X(1, ξ) = b1 . Logo, P [b1 = 0] = P [0 ≤ ξ < 1/2] = 1/2. (ii) P [X(1, ξ) = 0 e X(2, ξ) = 1] Solu¸˜o: ca P [b1 = 0 e b2 = 1] = P [1/4 ≤ ξ < 1/2] = 1/4. (b) Seja ξ um n´ mero escolhido no intervalo [−1, 1] e seja X(t) o processo estoc´stico u a definido por X(t, ξ) = ξcos(2πt) , t ∈ R Ache a f.d.p. de X0 = X(t0 , ξ). Solu¸˜o: ca Temos que X0 = X(t0 , ξ) = ξcos(2πt0 ). Como ξ ´ uniformemente distribu´ em [−1, 1], temos que X0 ser´ uniformemente dise ıda a tribu´ em [−cos(2πt0 ), cos(2πt0 )] com t0 sendo tal que cos2πt0 = 0. ıda Assim, fX0 (x) =      1 , −cos2πt0 < x < cos2πt0 2cos2πt0 0 , caso contr´rio a Por´m, se t0 for tal que cos2πt0 = 0, ent˜o fX0 (t) = δ(t). e a Ao fixarmos um valor para o parˆmetro t de um processo estoc´stico X(t, ξ), obtemos a a uma vari´vel aleat´ria X com F.D.P. FX(t) (x) = P [X(t) ≤ x]. A f.d.p. correspondente ´ a o e ∂ FX(t) (x). fX(t) (x) = ∂x Para cada t teremos uma vari´vel aleat´ria X(t) distinta. a o Quando, para qualquer t , conhecemos fX(t) (x) ou FX(t) (x), dizemos que o processo estoc´stico X(t, ξ) est´ especificado at´ a primeira ordem. a a e Um processo estoc´stico X(t) fica especificado at´ a segunda ordem se, para qualquer par de a e instantes (t1 , t2 ), a f.d.p. fX(t1 )X(t2 ) (x1 , x2 ) das vari´veis aleat´rias X(t1 ) e X(t2 ) ´ conhecida. a o e Um processo estoc´stico X(t) est´ especificado at´ a ordem m, quando ´ conhecida a f.d.p. a a e e conjunta das m vari´veis aleat´rias X(ti ) para qualquer conjunto de valores {ti , i = 1, . . . , m}. a o Em outras palavras, quando se conhece fX(t1 )X(t2 )...X(tm ) (x1 , x2 , . . . , xm ). Dizemos que um processo estoc´stico est´ especificado completamente se ele est´ especifia a a cado at´ a ordem m para qualquer valor de m. e 49
  • 51. 7.3 Momentos Os momentos (ou estat´ ısticas) de um processo estoc´stico s˜o os momentos das vari´veis a a a aleat´rias definidas em quaisquer instantes do processo. o 7.3.1 M´dia e +∞ mX (t) = E[X(t)] = xfX(t) (x)dx −∞ 7.3.2 Autocorrela¸˜o ca Uma das caracter´ ısticas mais importantes de um processo estoc´stico ´, sem d´ vida, sua a e u fun¸˜o autocorrela¸˜o, que nos levar´ a conhecer a sua densidade espectral. O conte´ do de ca ca a u freq¨ˆncias de um processo depende da velocidade com que a amplitude muda com o tempo. ue Isso pode ser medido pela correla¸˜o entre as amplitudes em t1 e em t1 + τ . ca Se as amplitudes de um processo X(t) (das amostras de X(t)) s˜o similares nos instantes t1 a e t1 + τ ; dizemos que as respectivas vari´veis aleat´rias tˆm forte correla¸˜o. Por outro lado, se a o e ca as amplitudes em t1 e em t1 + τ forem diferentes, dizemos que as respectivas vari´veis aleat´rias a o tˆm fraca correla¸˜o. e ca A autocorrela¸˜o ´ o momento conjunto das vari´veis aleat´rias X(t1 ) e X(t2 ) definidas ca e a o para todo par (t1 , t2 ); isto ´, e +∞ +∞ RX (t1 , t2 ) = E[X(t1 )X(t2 )] = xyfX(t1 )X(t2 ) dxdy −∞ −∞ sendo fX(t1 )X(t2 ) (x, y) a f.d.p. de segunda ordem de X(t). 7.3.3 Autocovariˆncia a A (fun¸˜o) autocovariˆncia de um processo X(t) ´ o momento conjunto central das vari´veis ca a e a aleat´rias X(t1 ) e X(t2 ) para quaiquer (t1 , t2 ); isto ´, o e CX (t1 , t2 ) = E[(X(t1 ) − mX (t1 ))(X(t2 ) − mX (t2 ))] , ∀(t1 , t2 ) Podemos mostrar que: (i) CX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) 2 (ii) σX (t) = RX (t, t) − m2 (t) X 2 Observe que σX (t) = CX (t, t) e que E[(X − mX )(Y − mY )] = E[XY ] − E[X]E[Y ]. 50
  • 52. O coeficiente de correla¸˜o de X(t) ´ definido como o coeficiente de correla¸˜o de X(t1 ) e ca e ca X(t2 ): ρX (t1 , t2 ) = CX (t1 , t2 ) CX (t1 , t1 ) CX (t2 , t2 ) com | ρX (t1 , t2 ) |≤ 1. Exemplos: (a) Seja A uma vari´vel aleat´ria e seja X(t) = Acos2πt um processo estoc´stico. a o a (i) Determine a m´dia de X(t), em fun¸˜o da m´dia da vari´vel aleat´ria A. e ca e a o Solu¸˜o: ca mX (t) = E[X(t)] = E[Acos2πt] = cos2πtE[A]. (ii) Determine RX (t1 , t2 ). Solu¸˜o: ca RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[A2 ]cos2πt1 cos2πt2 . (b) Seja X(t) = cos(ωt + Θ) um processo estoc´stico onde Θ ´ uma vari´vel aleat´ria unia e a o formemente distribu´ no intervalo (−π, π). ıda Determine: (i) A m´dia de X(t) e Solu¸˜o: ca +∞ mX = cos(ωt + θ)fΘ (θ)dθ = 0. −∞ (ii) A autocorrela¸˜o de X(t) ca Solu¸˜o: ca RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[cos(ωt1 + Θ)cos(ωt2 + Θ)] 1 1 = E[cos(ω(t1 + t2 ) + 2θ) + cos(ω(t1 − t2 )] = cos(ω(t1 − t2 )). 2 2 51
  • 53. 7.4 Processos estoc´sticos (estritamente) estacion´rios a a Seja X(t) um processo estoc´stico. Se, para qualquer inteiro n, a f.d.p. conjunta de ordem a n n˜o varia com um deslocamento no tempo; isto ´, a e fX(t1 )X(t2 )...X(tn ) (x1 , x2 , . . . , xn ) = fX(t1 +τ )X(t2 +τ )...X(tn +τ ) (x1 , x2 , . . . , xn ) , ∀τ ent˜o o processo estoc´stico ´ dito estritamente estacion´rio at´ a ordem n. a a e a e Obs: (i) A mesma defini¸˜o vale se considerarmos a F.D.P. conjunta ca (ii) mX (t) = E[X(t)] = m 2 (iii) σX(t) = E[(X(t) − m)2 ] = σ 2 (iv) Um processo estoc´stico ´ estacion´rio at´ a primeira ordem se, e s´ se, a e a e o fX(t) (x) = fX(t+τ ) (x) , ∀t, τ (v) Um processo estoc´stico ´ estacion´rio at´ a segunda ordem se, e s´ se, a e a e o fX(t1 )X(t2 ) (x1 , x2 ) = fX(t1 +τ )X(t2 +τ ) (x1 , x2 ) , ∀τ (vi) Se X(t) ´ estacion´rio at´ a n-´sima ordem ent˜o tamb´m ser´ at´ a ordem k, k < n. e a e e a e a e (vii) A verifica¸˜o de estacionariedade estrita ´ uma tarefa dif´ motivando a verifica¸˜o de ca e ıcil, ca formas mais fracas de estacionariedade. 7.5 7.5.1 Processos estoc´sticos estacion´rios no sentido ama a plo ou fracamente estacion´rios a Defini¸˜o ca Um processo estoc´stico X(t) ´ dito estacion´rio no sentido amplo se sua m´dia for a e a e constante; isto ´, mX (t) = m, ∀t e se a sua autocorrela¸˜o ´ fun¸˜o, apenas, da diferen¸a e ca e ca c entre dois instantes; isto ´, e RX (t1 , t2 ) = RX (τ ) , τ = t1 − t2 , ∀t1 , t2 OBS: Se um processo estoc´stico ´ estritamente estacion´rio at´ a segunda ordem ent˜o ele a e a e a ´ estacion´rio no sentido amplo. Por´m, a rec´ e a e ıproca n˜o ´ verdadeira. a e Exemplo: 52
  • 54. Considere o processo estoc´stico X(t) = Asen(ωt + Θ) sendo Θ uma vari´vel aleat´ria a a o uniformemente distribu´ em [0, 2π]. Verifique se este processo ´ estacion´rio no sentido amplo. ıda e a Solu¸˜o: ca 2π mX (t) = Asen(ωt + θ) 0 1 dθ = 0 2π e RX (t1 , t2 ) = . . . = 7.5.2 A2 cos[ω(t1 − t2 )] 2 Propriedades (i) RX (τ ) = RX (−τ ) (ii) RX (0) = E[X 2 (t)] (iii) Se X(t) = X(t + nT ) , n ∈ Z ent˜o RX (τ ) = RX (τ + nT ) a (iv) | RX (τ ) |≤ RX (0) , ∀τ 7.6 7.6.1 Estat´ ısticas conjuntas de processos estoc´sticos a Especifica¸˜o conjunta ca Dois processos estoc´sticos, digamos X(t) e Y (t), est˜o conjuntamente especificados at´ a a a e ordem m+n, quando ´ conhecida a f.d.p. conjunta das m+n vari´veis aleat´rias {X(ti ), Y (tj )} e a o para quaisquer conjuntos de valores. Isto ´, e fX(t1 )X(t2 )...X(tm )Y (t′1 )Y (t′2 )...Y (t′n ) (x1 , x2 , . . . , xm , y1 , y2, . . . , yn ) para todos t1 , t2 , . . . , tm , t′1 , t′2 , . . . , t′n . 7.6.2 Momentos conjuntos Correla¸˜o cruzada ca A fun¸˜o correla¸˜o cruzada de dois processos estoc´sticos X(t) e Y (t), representada por ca ca a RXY (t1 , t2 ), ´ o momento conjunto das vari´veis aleat´rias X(t1 ) e Y (t2 ) definidas para quaise a o quer pares (t1 , t2 ); isto ´, e +∞ +∞ RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = Covariˆncia cruzada a −∞ −∞ 53 xyfX(t1 )Y (t2 ) (x, y)dxdy , ∀t1 , t2
  • 55. A fun¸˜o covariˆncia cruzada de dois processos estoc´sticos X(t) e Y (t), representada por ca a a CXY (t1 , t2 ), ´ o momento conjunto central das vari´veis aleat´rias X(t1 ) e Y (t2 ) definidas para e a o qualquer par (t1 , t2 ); isto ´, e CXY (t1 , t2 ) = E{[X(t1 ) − mX (t1 )][Y (t2 ) − mY (t2 )] Podemos mostrar que CXY (t1 , t2 ) = RXY (t1 , t2 ) − mX (t1 )mY (t2 ). 7.6.3 Processos estoc´sticos conjuntamente estacion´rios a a Dois processos estoc´sticos X(t) e Y (t) s˜o ditos conjuntamente estacion´rios at´ a ordem a a a e k + ℓ se a f.d.p. conjunta das k + ℓ vari´veis aleat´rias {X(ti ), Y (t′j ) , i = 1, 2, . . . , k; j = a o 1, 2, . . . , ℓ} n˜o varia com um deslocamento no tempo; isto ´, a e fX(t1 )...X(tk )Y (t′1 )...Y (t′ℓ ) = fX(t1 +τ )...X(tk +τ )Y (t′1 +τ )...Y (t′ℓ +τ ) Dois processos estoc´sticos X(t) e Y (t) s˜o ditos conjuntamente estacion´rios no sentido a a a amplo quando cada um deles ´ estacion´rio no sentido amplo e RXY (t1 , t2 ) s´ depende da e a o diferen¸a (t1 − t2 ); isto ´, c e RXY (t1 , t2 ) = RXY (t1 − t2 ) = RXY (τ ) , τ = t1 − t2 7.6.4 Propriedades da fun¸˜o correla¸˜o cruzada de dois processos ca ca estoc´sticos conjuntamente estacion´rios a a (i) RXY (τ ) = RY X (−τ ) 2 (ii) RXY (τ ) ≤ RX (0)RY (0) (iii) 2 | RXY (τ ) |≤ RX (0) + RY (0) 7.6.5 Independˆncia, n˜o-correla¸˜o e ortogonalidade e a ca Dois processos estoc´sticos X(t) e Y (t) s˜o estatisticamente independentes quando para a a quaisquer m e n a f.d.p. conjunta de ordem m + n pode ser escrita como o produto da f.d.p. de ordem m do processo X(t) pela f.d.p. de ordem n do processo Y (t); isto ´, e fX(t1 )...X(tm )Y (t′1 )...Y (t′n ) (x1 , . . . , xm , y1 , . . . , yn ) = fX(t1 )...X(tm ) (x1 , . . . , xm )fY (t′1 )...Y (t′n ) (y1 , . . . , yn ) Dois processos estoc´sticos X(t) e Y (t), conjuntamente estacion´rios no sentido amplo s˜o a a a ditos n˜o-correlatos quando CXY (τ ) = 0. a CXY (τ ) = 0 ⇒ RXY (τ ) = mX mY . Dois processos estoc´sticos X(t) e Y (t), conjuntamente estacion´rios no sentido amplo s˜o a a a ortogonais quando RXY (τ ) = 0. 54
  • 56. Exemplos: (a) Sejam X(t) e Y (t) processos estoc´sticos dados por X(t) = cos(ωt + Θ) e Y (t) = a sen(ωt+Θ), sendo Θ uma v.a. uniformemente distribu´ no intervalo [−π, π]. Ache CXY (t1 , t2 ). ıda Solu¸˜o: ca CXY (t1 , t2 ) = RXY (t1 , t2 ) − mX (t1 )mY (t2 ) Mas, mX (t1 ) = mY (t2 ) = 0. 1 E, RXY (t1 , t2 ) = − sen(ω(t1 − t2 )). 2 Logo, 1 CXY (t1 , t2 ) = − sen(ω(t1 − t2 )). 2 (b) Seja Y (t) = X(t) + N(t), onde X(t) ´ um sinal desejado e N(t) um ru´ e ıdo. Ache RXY (t1 , t2 ) supondo que X(t) e N(t) s˜o processos estoc´sticos independentes. a a Solu¸˜o: ca RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = E[X(t1 )X(t2 )]+E[X(t1 )N(t2 )] = RX (t1 , t2 )+mX (t1 )mN (t2 ). 7.6.6 Processos Erg´dicos o Vimos que a caracteriza¸˜o completa de um processo estoc´stico exige o conhecimento ca a de todas as suas fun¸˜es amostra. Esta caracteriza¸˜o permitiu a determina¸˜o de diversas co ca ca estat´ ısticas de processos como, por exemplo, sua m´dia e sua fun¸˜o autocorrela¸˜o. Para e ca ca alguns processos estoc´sticos, entretanto, estas estat´ a ısticas podem ser determinadas a partir de apenas uma fun¸˜o amostra do processo. Esses processos estoc´sticos s˜o determinados ca a a erg´dicos. o Para processos erg´dicos, os valores m´dios e os momentos podem ser determinados atrav´s o e e de m´dias temporais. e 1 T Assim, E[X n (t)] = lim [X(t)]n dt T →+∞ 2T −T onde X(t) ´ uma fun¸˜o amostra t´ e ca ıpica do processo. A autocorrela¸˜o ser´ dada por ca a 1 T →+∞ 2T T RX (τ ) = E[X(t)X(t + τ )] = lim 7.7 X(t)X(t + τ ) dt −T Processos estoc´sticos gaussianos a Um processo X(t) ´ um processo estoc´stico gaussiano se as amostras X1 = X(t1 ), X2 = e a X(t2 ), . . . , Xk = X(tk ) s˜o vari´veis aleat´rias conjuntamente gaussianas para todo k e todas a a o as escolhas de t1 , . . . , tk . Assim, a f.d.p. tem a forma 55
  • 57. 1 T −1 e− 2 (x−m) K (x−m) fX1 X2 ...Xk (x1 , x2 , . . . , xk ) = (2π)k/2 | K |1/2 onde   mX (t1 )  m (t )  m= X 2   ...  mX (tk ) e  CX (t1 , t1 )  CX (t2 , t1 ) K=  ... CX (tk , t1 ) CX (t1 , t2 ) CX (t2 , t2 ) ... CX (tk , t2 ) ... ... ... ...  CX (t1 , tk ) CX (t2 , tk )    ... CX (tk , tk ) Observamos que processos estoc´sticos gaussianos tˆm a propriedade que suas f.d.p.’s cona e junas s˜o completamente especificadas pela m´dia do processo mX (t) e pela fun¸˜o covariˆncia a e ca a CX (t1 , t2 ). Se um processo gaussiano ´ estacion´rio no sentido amplo ent˜o sua m´dia ´ constante e e a a e e sua autocovariˆncia s´ depende da diferen¸a entre dois instante. Al´m disso, ele ser´ tamb´m a o c e a e estritamente estacion´rio. a Exemplo: Seja X(t) um processo gaussiano com fun¸˜o m´dia e fun¸˜o autocorrela¸˜o dadas por ca e ca ca −|t1 −t2 | mX (t) = 1 e RX (τ = t1 − t2 ) = 2 + 1. Determine P [1 < X(4) < 3]. Sol.: 2 2 X(4) = X4 ´ uma vari´vel aleat´ria gaussiana com E[X4 ] = 1 e σX4 = E[X4 ] − [E(X4 )]2 = e a o 2 RX (0) − mX (4) = 2 − 1 = 1. 3 (X4 −1)2 1 √ e− 2 dX4 ≃ 0.477. Assim, P [1 < X2 < 3] = 2π 1 56
  • 58. Chapter 8 Revis˜o de an´lise de Fourier a a 8.1 Introdu¸˜o ca Este cap´ ıtulo ´ devotado a uma revis˜o da an´lise de Fourier e a estudar como um sinal no e a a dom´ ınio do tempo pode ser representado no dom´ ınio da freq¨ˆncia. ue 8.2 S´rie de Fourier e Consideremos f : I → I uma fun¸˜o que satisfaz as seguintes condi¸˜es: R R ca co (i) f ´ peri´dica de per´ e o ıodo T; (ii) f ´ de classe C 2 por partes em (t0 , t0 + T ). e Em todo ponto de continuidade de f , podemos escrever: f (t) = onde ∞ ao [an cos + 2 n=1    a = 2  o   T        2 an =  T          b = 2  n  T 2nπt T + bn sen 2nπt ] T (8.1) to +T f (t)dt , to to +T f (t)cos 2nπt T dt e f (t)sen 2nπt T dt. to to +T to (8.2) Num ponto de descontinuidade o lado esquerdo de 8.1 ´ substitu´ por : e ıdo 1 lim [f (t + ε) + f (t − ε)]. ε→o+ 2 57 (8.3)
  • 59. A s´rie 8.1 com coeficientes dados por 8.2 ´ chamada de s´rie de Fourier de f na forma e e e trigonom´trica. e As condi¸˜es (i) e (ii) s˜o muitas vezes chamadas condi¸˜es de Dirichlet e s˜o suficientes co a co a (mas n˜o necess´rias) para a convergˆncia da s´rie de Fourier. a a e e Em nota¸˜o exponencial (ou complexa) a s´rie de Fourier de f pode ser escrita como ca e +∞ Fn ej f (t) = 2nπt T (8.4) n=−∞ onde Fazendo ωo = 1 Fn = T to +T f (t)e−j 2nπt T dt. (8.5) f (t)e−jnωo t dt. (8.6) to 2π , temos T Fn = 1 T to +T to Observamos que, conhecido f , os coeficientes de 8.4 podem ser calculados e, reciprocamente, conhecidos os coeficientes {Fn }n∈Z , f pode ser sintetizada por 8.4. Dessa forma, f e {Fn }n∈Z Z Z fornecem a mesma informa¸˜o. Muda s´ o ponto de vista : um temporal, outro freq¨ encial. ca o u Exemplo Consideremos a fun¸˜o f : I → I peri´dica de per´ ca R R, o ıodo 2, dada por f (t) = t , 0 ≤ t < 2. O gr´fico dessa fun¸˜o ´ mostrado na figura 8.1. a ca e Figure 8.1: Exemplo de uma fun¸˜o peri´dica. ca o 58 (8.7)
  • 60. S´rie de Fourier de f na forma trigonom´trica e e C´lculo dos coeficientes a 2 T 2 an = T 2 bn = T 2 ao = 2 f (t)dt = 0 tdt = 2. 0 2 2 2nπt f (t)cos( )dt = T 0 2 2nπt f (t)sen( )dt = T 0 2nπt tcos( )dt = T 0 2 2nπt tsen( )dt = T 0 2 tcos(nπt)dt = 0. 0 2 tsen(nπt)dt = 0 −2 . nπ Assim, +∞ f (t) = 1 + n=1 −2 sen(nπt). nπ S´rie de Fourier de f na forma exponencial e C´lculo dos coeficientes a Fn = e 1 T 2 f (t)e−j 2nπt T dt = 0 1 Fo = T 2 0 1 2 2 te−jnπt dt = 0 1 f (t)dt = 2 1 j nπ ,n = 0 2 tdt = 1. 0 Assim, Fn = 1, n=0 1 j , n = 0. nπ Temos, +∞ f (t) = 1 + 1 jnπt je , n = 0. nπ n=−∞ O espectro complexo de Fourier A expans˜o em s´rie de Fourier de uma fun¸˜o peri´dica ´ a decomposi¸˜o da fun¸˜o em a e ca o e ca ca termos das suas componentes de v´rias freq¨ˆncias. Uma fun¸˜o peri´dica de per´ a ue ca o ıodo T tem 1 componentes de freq¨ˆncias dadas por nν, onde ν = T e n ∈ Z Em termos das freq¨ˆncias ue Z. ue 2π angulares (ou pulsa¸˜es), as componentes s˜o dadas por nωo onde ωo = T = 2πν e n ∈ Z co a Z. Chamamos de espectro da fun¸˜o f o conjunto de todos os coeficientes de Fourier Fn , n ∈ ca Z Se especificarmos f podemos encontrar seu espectro. Reciprocamente, se o espectro for Z. conhecido podemos encontrar a fun¸˜o f correspondente. ca 59
  • 61. Portanto, podemos especificar f de duas formas: a representa¸˜o no dom´ ca ınio do tempo, onde f ´ expressa como fun¸˜o do tempo e a representa¸˜o no dom´ e ca ca ınio da freq¨ˆncia, onde o ue espectro ´ especificado. e Observamos que o espectro de uma fun¸˜o peri´dica n˜o ´ uma curva cont´ ca o a e ınua, mas existe 2π apenas para valores discretos de ω, m´ ltiplos de uma freq¨ˆncia b´sica ωo = T ( ω = nωo , n ∈ u ue a Z Os coeficientes Fn s˜o complexos e, s˜o descritos por uma magnitude e uma fase. Z). a a Consideremos a fun¸˜o dada por 8.7. Temos que ca Fn = 1, n=0 1 j , n = 0. nπ Assim,   1 ,n = 0 1 | Fn |= ,n = 0  | nπ | Fazendo ω = nω0 = n  n=0  0,  π  , n positivo ∠Fn = 2  −π   , n negativo. 2 e 2π = nπ, temos : T   1 ,ω = 0 1 | Fn |= ,ω = 0  |ω|   0 ,ω = 0  π  , ω positivo ∠Fn = 2  −π   , ω negativo. 2 e Constru´ ımos os gr´ficos de | Fn | e ∠Fn , em termos da freq¨ˆncia ω, apresentando-os na a ue figura 8.2. Figure 8.2: Amplitude e fase dos coeficientes da s´rie de Fourier. e 60
  • 62. Consideremos, agora, a fun¸˜o f : I → I peri´dica de per´ ca R R, o ıodo T , dada por : f (t) = 1, − τ ≤ t ≤ τ 2 2 0, τ < t < T − τ . 2 2 (8.8) Essa fun¸˜o ´ conhecida como porta (gate) peri´dica. Mostramos o seu gr´fico na figura 8.3. ca e o a Figure 8.3: Fun¸˜o porta peri´dica. ca o Os coeficientes Fn da s´rie de Fourier na forma exponencial s˜o dados por: e a 2nπt 1 T −τ /2 1 f (t)e−j T dt = T −τ /2 T τ sen(nωo τ /2) [ ] , n = 0, = T nωo τ /2 τ /2 e−jnωo t dt Fn = e 1 Fo = T Dessa forma, T−τ 2 −τ 2 1 f (t)dt = T τ 2 −τ 2 −τ /2 dt = (8.9) τ . T  τ  , n=0  T Fn =  τ sen(nω0 τ /2) , n = 0.  T nω0 τ /2 (8.10) (8.11) Definindo a fun¸˜o Sa, conhecida como fun¸˜o de amostragem, por ca ca Sa : I → I R R 1, t=0 sent t→ , t=0 t e fazendo ω = 2π , temos, T Fn = τ nπτ Sa ( ). T T 61 (8.12) (8.13)
  • 63. A freq¨ˆncia fundamental ´ ωo = ue e 2π . Se ω = nωo , ent˜o a T Fn = τ ωτ Sa( ). T 2 (8.14) Mostramos o gr´fico de Fn em termos da freq¨ˆncia ω na figura 8.4. a ue Figure 8.4: Representa¸˜o do espectro da fun¸˜o porta peri´dica. ca ca o Podemos observar que ` medida que T aumenta, a freq¨ˆncia fundamental 2π se torna a ue T menor e o espectro torna-se, ent˜o, mais denso. Intuitivamente, somos levados a pensar que a quando T tende ao infinito temos, no dom´ do tempo, um unico pulso retangular de largura ınio ´ τ e no dom´ ınio da freq¨ˆncia um espectro cont´ ue ınuo com componentes em todas as freq¨ˆncias. ue Isso pode ser provador rigorosamente. 62
  • 64. 8.3 Transformada de Fourier Quando o sinal com o qual estamos trabalhando for n˜o-peri´dico ele pode ser expresso a o como uma soma cont´ ınua (integral) de sinais exponenciais, em contraste com sinais peri´dicos, o que podem ser representados por uma soma discreta de sinais exponenciais (s´rie de Fourier e como j´ visto). Vejamos uma motiva¸˜o para essa afirma¸ao. a ca c˜ Consideremos uma fun¸˜o f como mostra a figura 8.5 . ca Figure 8.5: Gr´fico da fun¸˜o f . a ca Constru´ ımos uma nova fun¸˜o, peri´dica, fT com per´ ca o ıodo T, de acordo com a figura 8.6. Figure 8.6: Constru¸˜o de uma fun¸˜o peri´dica a partir da fun¸˜o f dada. ca ca o ca Tornamos o per´ ıodo T grande o suficiente para que n˜o haja superposi¸˜o entre os pulsos a ca da forma de f . Essa nova fun¸˜o fT ´ uma fun¸˜o peri´dica e pode ser representada por uma ca e ca o s´rie exponencial de Fourier. e Numa topologia adequada, quando T → ∞, fT → f . Desse modo, a s´rie de Fourier que e representa fT tamb´m representar´ f . e a A s´rie de Fourier de fT ´ dada por e e +∞ Fn ejnωo t fT (t) = n=−∞ 63 (8.15)
  • 65. onde ωo = 2π T e Fn = T /2 1 T fT (t)e−jnωo t dt. (8.16) −T /2 Fa¸amos nωo = ωn . Assim, Fn = Fn (ωn ). c Consideremos T Fn (ωn ) = F (ωn ), que ´ obviamente limitado (por constru¸˜o). Temos, e ca 1 fT (t) = T Substituindo T = +∞ F (ωn )ejωn t . (8.17) F (ωn )ejωn t ωo . (8.18) n=−∞ 2π em 8.17 temos ωo +∞ 1 fT (t) = 2π n=−∞ Quando T → ∞ , fT → f e obtemos : f (t) = +∞ 1 2π F (ω)ejωt dω (8.19) −∞ e +∞ f (t)e−jωt dt. F (ω) = (8.20) −∞ O espectro de f ser´ cont´ a ınuo e representado pela fun¸˜o F . ca A equa¸˜o 8.20 ´ conhecida como transformada (direta) de Fourier de f e a equa¸˜o 8.19 ca e ca como transformada inversa de Fourier de F . Simbolicamente podemos escrever F (ω) = F [f (t)] (8.21) f (t) = F −1 [F (ω)]. (8.22) e Fazendo ω = 2πν em 8.19 e 8.20 chegamos a uma formula¸˜o sim´trica, o fator 2π n˜o aparece. ca e a +∞ ˆ F(ν)ej2πνt dν (8.23) f (t)e−j2πνt dt. f (t) = (8.24) −∞ e +∞ ˆ F(ν) = −∞ Existˆncia da transformada de Fourier e O espa¸o L1 (R) c O espa¸o L1 (R) ´ o espa¸o de todas as fun¸˜es f : I → C tais que c e c co R R f dt < ∞. 64 (8.25)
  • 66. O espa¸o L2 (R) c O espa¸o L2 (R) ´ o espa¸o de todas as fun¸˜es f : I → C, tais que c e c co R R f 2dt < ∞. (8.26) Teorema: Se a fun¸˜o f pertence ao espa¸o L1 (R) ent˜o a transformada de f existe. ca c a Teorema: Se a fun¸˜o f pertence ao espa¸o L2 (R) ent˜o a transformada F, de f , existe e F ∈ L2 (R). ca c a Exemplos 1. Consideremos a fun¸˜o Gτ (conhecida como fun¸˜o porta) definida por ca ca 1, | t |≤ τ 2 0, | t |> τ . 2 Gτ (t) = (8.27) Figure 8.7: fun¸˜o porta. ca Calculando a transformada de Fourier dessa fun¸˜o, temos : ca τ /2 F (ω) = F {Gτ (t)} = −jωt e dt = τ Sen( ωτ ) 2 −τ /2 Para ω = 0 temos : ωτ 2 , ω = 0. (8.28) τ /2 F {Gτ (t)} |ω=0 = dt = τ. −τ /2 Logo, F {Gτ (t)} = τ Sa( ωτ ). 2 A figura 8.8 mostra a representa¸˜o do espectro da fun¸˜o porta. Neste caso F ´ uma ca ca e fun¸˜o real. ca 65
  • 67. Figure 8.8: Representa¸˜o do espectro da fun¸˜o porta. ca ca 2. Consideremos a fun¸˜o f : I → I definida por ca R R f (t) = e−|t| . Calculando sua transformada de Fourier, obtemos : +∞ F {e−|t| } = e−|t| e−jωt dt = −∞ 2 . 1 + ω2 3. Consideremos a fun¸˜o f : I → I definida por ca R R e−t , t > 0 0, t ≤ 0. f (t) = A sua transformada de Fourier ´ dada por: e +∞ F {f (t)} = e−t e−jωt dt = 0 1 . 1 + jω 4. Consideremos a fun¸˜o Gτ : I → I definida por ca R R 1, | ω |≤ τ /2 0, | ω |> τ /2. Gτ (ω) = Desejamos calcular sua tranformada de Fourier inversa. Assim, F −1 {Gτ (ω)} = 1 2π τ /2 ejωt dω = −τ /2 Para t = 0 temos : F −1 1 {Gτ (ω)} |t=0 = 2π 66 τ Sen( tτ ) 2 , t = 0. tτ 2π 2 τ /2 dω = −τ /2 1 τ. 2π
  • 68. Assim, τ τt Sa( ). 2π 2 tτ 2π Logo, a transformada de f (t) = Sa( 2 ) ´ igual a τ Gτ (ω). Em particular, e F −1 {Gτ (ω)} = F {Sa(t)} = πG2 (ω). Propriedades da transformada de Fourier As propriedades da transformada de Fourier est˜o apresentadas na seguinte tabela 8.1. a FUNCAO ¸˜ f (t) F (t) a1 f1 (t) + f2 (t) Simetria Linearidade Mudan¸a de escala c f (at) f (t)ejw0 t Transla¸˜o em freq¨ˆncia ca ue f (t) cos(w0 t) f (t) sen(w0 t) Transla¸˜o no tempo ca Dualidade Conjuga¸˜o ca Diferencia¸˜o no tempo ca f (t − t0 ) F (t) f ∗ (t) dn f dtn t Integra¸˜o no tempo ca f (τ )dτ −∞ Diferencia¸˜o na freq¨ˆncia ca ue Simetria (−jt)n f (t) f (t) real f (t) real f (t) real f (t) real f (t) real f (t) real, par em t f (t) real, impar em t TRANSFORMADA F (w) 2πf (−w) a1 F1 (w) + a2 F2 (w) w 1 F |a| a F (w − w0 ) 1 [F (w + w0 ) + F (w − w0 )] 2 j [F (w + w0 ) − F (w − w0 )] 2 e−jwt0 F (w) f (w) F ∗ (−w) (jw)n F (w) 1 F (w) jw dn f dw n F (w) = F ∗ (−w) R{F (w)} =R{F ∗ (−w)} I{F (w)} = −I{F ∗ (−w)} |F (w)| = |F (−w)| ∠F (w) = −∠F (−w) F (w) real, par em w F (w) imagin´ria, impar em w a Table 8.1: Propriedades da transformada de Fourier 67
  • 69. 8.4 Convolu¸˜o ca Dadas duas fun¸˜es f1 e f2 formamos a integral co +∞ f (t) = −∞ f1 (τ )f2 (t − τ )dτ. (8.29) Essa integral define a convolu¸˜o das fun¸˜es f1 e f2 . Simbolicamente escrevemos ca co f = f1 ∗ f2 . Veremos que convolu¸˜o est´ intimamente associado a produto. ca a Propriedades Comutatividade f1 ∗ f2 = f2 ∗ f1 . (8.30) f1 ∗ [f2 + f3 ] = f1 ∗ f2 + f1 ∗ f3 . (8.31) f1 ∗ [f2 ∗ f3 ] = [f1 ∗ f2 ] ∗ f3 . (8.32) Distributividade Associatividade Teorema da convolu¸˜o no tempo ca Se f1 (t) ↔ F1 (ω) e f2 (t) ↔ F2 (ω) ent˜o a f1 ∗ f2 ↔ F1 F2 . (8.33) ˆ ˆ f1 ∗ f2 ↔ F1 F2 . (8.34) ˆ ˆ Se f1 (t) ↔ F1 (ν) e f2 (t) ↔ F2 (ν) ent˜o a Teorema da convolu¸˜o na freq¨ˆncia ca ue Se f1 (t) ↔ F1 (ω) e f2 (t) ↔ F2 (ω) ent˜o a f1 f2 ↔ 1 [F1 ∗ F2 ]. 2π (8.35) ˆ ˆ Se f1 (t) ↔ F1 (ν) e f2 (t) ↔ F2 (ν) ent˜o a ˆ ˆ f1 f2 ↔ F1 ∗ F2 . 68 (8.36)
  • 70. FUNCAO ¸˜ f (t) A ejω0 t cos(ω0 t) (t) = sen(ω0 t) TRANSFORMADA F (w) 2πAδ 2πδ(ω − ω0 ) π[δ(ω − ω0 ) + δ(ω + ω0 )] jπ[δ(ω + ω0 ) − δ(ω − ω0 )] Table 8.2: Algumas tranformadas que envolvem o impulso unit´rio. a TIPO DE SINAL corrente dom´stica e quartzo de rel´gio o onda de radar vibra¸˜o de um ´tomo de C´sio ca a e ONDAS HERTZIANAS: muito longas (tel´grafo) e longas (r´dio) a m´dias (r´dio) e a curtas (r´dio) a m´tricas (televis˜o) e a centim´tricas (radar) e luz vis´ ıvel BANDA EM Hz 60 105 1010 1014 1, 5 × 104 a 6 × 104 6 × 104 a 3 × 105 3 × 105 a 3 × 106 3 × 106 a 3 × 107 3 × 107 a 3 × 108 3 × 108 a 1011 3, 7 × 1014 a 7, 5 × 1014 Table 8.3: Ordens de grandeza de sinais. Apresentamos na tabela 8.2 algumas transformadas que envolvem o impulso unit´rio (Delta a de Dirac) denotado por δ. Mostramos, na tabela 8.3 as ordens de grandeza de alguns sinais. 69
  • 71. Chapter 9 An´lise e processamento de sinais a aleat´rios o 9.1 Introdu¸˜o ca Seja X(t) um processo estoc´stico estacion´rio no sentido amplo, com m´dia mX e fun¸˜o a a e ca autocorrela¸˜o RX (τ ). ca A densidade espectral de potˆncia de X(t) ´ definida por e e +∞ RX (τ )e−iωτ dτ SX (ω) = F {RX (τ )} = −∞ +∞ 1 SX (ω)eiωτ dω. 2π −∞ Antes de continuarmos, faremos um breve estudo de conceitos envolvendo sinais determin´ ısticos e iremos justificar as f´rmulas acima. o Tamb´m, RX (τ ) = e 9.2 9.2.1 Alguns conceitos sobre sinais determin´ ısticos Energia e Potˆncia de um sinal e Seja x = x(t) um sinal determin´ ıstico. Se x for real, definimos a energia do sinal x (Ex ) por: +∞ x2 (t)dt Ex = −∞ e a potˆncia por e 1 T →+∞ T T /2 x2 (t)dt . Px = lim Se x for complexo, 70 −T /2
  • 72. +∞ +∞ x(t)x∗ (t)dt = Ex = −∞ e −∞ 1 Px = lim T →+∞ T Obs. | x(t) |2 dt T /2 −T /2 | x(t) |2 dt . (i) As defini¸˜es acima s´ fazem sentido quando as integrais convergem. co o (ii) Energia e potˆncia, neste caso, s˜o defini¸˜es e n˜o tˆm, necessariamente, unidades de e a co a e energia (JOULE) e de potˆncia (WATT). e (iii) Podemos assumir a potˆncia (ou a energia) dissipada em um carga de 1Ω para as f´rmulas e o apresentadas. √ e (iv) Px ´ o valor m´dio quadr´tico de x e, portanto, Px ´ o valor rms (root mean square). e e a 9.2.2 Algumas f´rmulas relacionadas a sinais determin´ o ısticos +∞ e−iωt x(t)dt = X(ω) (i) F {x(t)} = (ii) x(t) = −∞ +∞ 1 2π eiωt X(ω)dω −∞ +∞ 1 (iii) x (t) = 2π X ∗ (ω)e−iωt dω ∗ −∞ +∞ eiωt x∗ (t)dt = X(−ω). Se x(t) for real, X ∗ (ω) = X(−ω). ∗ (iv) X (ω) = −∞ 9.2.3 Teorema de Parseval +∞ 1 x(t)x (t)dt = 2π +∞ ∗ Ex = −∞ −∞ | X(ω) |2 dω Prova: +∞ +∞ x(t)x∗ (t)dt = Ex = −∞ 1 = 2π 1 = 2π +∞ +∞ x(t) −∞ ∗ −iωt x(t)X (ω)e −∞ −∞ +∞ ∗ X (ω)X(ω)dω = −∞ 1 2π 1 2π +∞ X ∗ (ω)e−iωt dωdt −∞ dωdt +∞ −∞ | X(ω) |2 dω . 71
  • 73. Obs. +∞ x2 (t)dt = Se x for real, Ex = −∞ 9.2.4 1 2π +∞ −∞ | X(ω) |2 dω. Densidade espectral de energia e de potˆncia e 1 +∞ Observamos que Ex = | X(ω) |2 dω. 2π −∞ Definimos, assim, a densidade espectral de energia do sinal x por: Sx (ω) =| X(ω) |2 e 1 Ex = 2π +∞ Sx (ω) dω . −∞ Definimos, tamb´m, densidade espectral de potˆncia do sinal x por: e e | XT (ω) |2 T Sx (ω) = lim T →+∞ sendo XT (ω) = F {x(t)GT (t)}, sendo G a fun¸˜o porta de largura T ca e 1 Px = 2π 9.3 9.3.1 +∞ Sx (ω) dω . −∞ Correla¸˜o cruzada e autocorrela¸˜o ca ca Introdu¸˜o ca Considere u e v dois vetores e θ o ˆngulo entre eles. Temos, ˜ ˜ a cosθ = u·v ˜ ˜ u ˜ v ˜ ` A medida que u se aproxima de v, o produto escalar u · v se torna maior. ˜ ˜ ˜ ˜ Analogamente, tratamos com fun¸˜es. Sejam f e g duas fun¸˜es, o produto interno entre co co elas ´ definido por: e t2 < f, g >= t1 f (t) · g(t)dt Assim, quanto mais semelhante forem f e g, maior o valor de < f, g >. 72
  • 74. 9.3.2 Defini¸˜o ca Sejam x = x(t) e y = y(t) sinais determin´ ısticos. Definimos, a correla¸˜o cruzada dos sinais ca x e y por +∞ Rxy (τ ) = x(t)y(t + τ ) dt −∞ e a autocorrela¸˜o do sinal x por ca +∞ Rx (τ ) = x(t)x(t + τ )dt −∞ Observe que Rxy (τ ) = Rxy (−τ ) e Rx (τ ) = Rx (−τ ). Temos, +∞ F {Rx (τ )} = +∞ e−iωτ −∞ +∞ x(t)x(t + τ )dtdτ −∞ +∞ e−iωτ x(t)x(t + τ )dτ dt = −∞ −∞ +∞ = +∞ e−iωτ x(t + τ )dτ dt x(t) −∞ −∞ Fazendo u = t + τ =⇒ du = dτ , temos: +∞ F {Rx (τ )} = +∞ x(t)eiωt dt −∞ e−iωu x(u)du −∞ = X(−ω)X(ω) = X ∗ (ω)X(ω) =| X(ω) |2 OBS. +∞ A convolu¸˜o entre as fun¸˜es f e g ´ definida por (f ∗ g)(t) = ca co e −∞ f (τ )g(t − τ )dτ . Sejam f (t) = x(t) e g(t) = x(−t). Temos, +∞ (f ∗ g)(t) = 9.4 −∞ +∞ x(τ )x(−(t − τ ))dτ = −∞ +∞ x(τ )x(τ − t)dτ = x(τ )x(t + τ )dτ = Rx (t) −∞ Densidade espectral de potˆncia para sinais aleat´rios e o Definimos a densidade espectral de potˆncia de um processo estoc´stico x(t) como a m´dia e a e das densidades espectrais de potˆncia de todas as fun¸˜es amostra. e co 73
  • 75. Temos, Sx (ω) = lim E T →+∞ | XT (ω) |2 T sendo XT (ω) = F {x(t)GT (t)}, sendo G a fun¸˜o porta de largura T . ca Teorema - Sx (ω) = F{Rx(τ )} 9.5 Seja x(t) um processo estoc´stico estacion´rio no sentido amplo. Vamos provar que Sx (ω) = a a F {Rx (τ )}. Prova: Temos, Sx (ω) = lim E T →+∞ Mas, | XT (ω) |2 T +∞ | XT (ω) | 2 = XT (ω)XT (−ω) = +∞ −iωt1 e xT (t1 )dt1 −∞ T /2 T /2 e−iωt1 x(t1 )dt1 = −T /2 . eiωt2 xT (t2 )dt2 −∞ T /2 T /2 eiωt2 x(t2 )dt2 = −T /2 e−iω(t1 −t2 ) x(t1 )x(t2 )dt1 dt2 . −T /2 −T /2 E, | XT (ω) |2 T lim E T →+∞ 1 T →+∞ T 1 = lim T →+∞ T T /2 T /2 e−iω(t1 −t2 ) E[x(t1 )x(t2 )]dt1 dt2 = lim −T /2 T /2 −T /2 −T /2 T /2 −T /2 e−iω(t1 −t2 ) Rx (t1 − t2 )dt1 dt2 . Fa¸amos τ = t1 − t2 ⇒ dτ = dt1 e, depois, t2 = t. Obtemos, assim, c 1 T /2 (T /2)−t −iωτ Sx (ω) = lim e Rx (τ )dτ dt T →+∞ T −T /2 (−T /2)−t ∗ ∗ ∗mudando a ordem de integra¸˜o ∗ ∗∗ ca 0 T /2 T (T /2)−τ 1 −iωτ = lim e Rx (τ )dtdτ + e−iωτ Rx (τ )dtdτ T →+∞ T −T (−T /2)−τ 0 −T /2 0 T 1 = lim e−iωτ Rx (τ )(T + τ )dτ + e−iωτ Rx (τ )(T − τ )dτ T →+∞ T −T 0 T 1 T −iωτ τ = lim e Rx (τ )(T − | τ |)dτ = lim e−iωτ Rx (τ ) 1− | | dτ T →+∞ T −T T →+∞ −T T +∞ = −∞ Rx (τ )e−iωτ dτ = F {Rx (τ )} . Devemos observar que potˆncia m´dia de X(t) ´ o seu segundo momento e ´ dada por e e e e 74
  • 76. +∞ E[X 2 (t)] = RX (0) = −∞ Temos, SX (ω) dω . 2π RX (τ ) = CX (τ ) + m2 ⇒ SX (ω) = F {CX (τ )} + m2 · 2πδ(ω) X X Observe que mX ´ a componente “dc” de X(t). e Para processos estoc´sticos conjuntamente estacion´rios no sentido amplo, definimos a dena a sidade espectral cruzada por SXY (ω) = F {RXY (τ )}, onde RXY (τ ) = E[X(t + τ )Y (t)]. 75
  • 77. Exemplos: (a) Sinal aleat´rio de tel´grafo o e “Considere um processo estoc´stico X(t) que assume apenas os valores ±1. Suponha que a 1 X(0) = ±1 com probabilidade e suponha que X(t) troque a polaridade com cada ocorrˆncia e 2 de um processo de Poisson ` taxa α”. a 1 Podemos provar que a autocorrela¸˜o desse processo ´ dada por RX (τ ) = e−α|τ | . ca e 2 Isto ´, as amostras de X(t) se tornam menos correlatas ` medida que a diferen¸a de tempo e a c entre elas aumenta. Determine a densidade espectral de potˆncia deste sinal. e (b) Considere o processo estoc´stico X(t) = acos(ω0 t + Θ), sendo Θ uma vari´vel aleat´ria a a o uniformemente distribu´ em [0, 2π]. ıda Determine: (i) RX (τ ) (ii) SX (ω) (iii) A potˆncia m´dia do sinal e e (c) A densidade espectral de potˆncia de um processo chamado de “processo de ru´ e ıdo branco”, estacion´rio no sentido amplo, com componentes de freq¨ˆncia limitadas em −Ω ≤ a ue ω ≤ Ω ´ dada por: e SX (ω) = N0 , −Ω ≤ ω ≤ Ω 2 Determine: (i) A potˆncia m´dia do processo e e (ii) A fun¸˜o autocorrela¸˜o do processo ca ca (iii) A autocorrela¸˜o do processo para τ = ca 2kπ Ω (iv) A autocorrela¸˜o quando Ω → +∞. ca 76
  • 78. 9.6 Resposta de sistemas lineares a sinais aleat´rios o Considere um sistema com sinal de entrada X(t) e sa´ Y (t) tal que Y (t) = T [X(t)]. ıda Suponhamos que T seja uma transforma¸˜o linear e invariante no tempo. ca Obs: Se T ´ linear ent˜o T [αX1 + βX2 ] = αT [X1 ] + βT [X2 ] e se T ´ invariante no tempo e a e ent˜o T [X(t − s)] = Y (t − s). a A resposta ao impulso deste sistema ´ definida por h(t) = T [δ(t)] e a resposta a uma entrada e arbitr´ria X(t) ´ dada por a e +∞ Y (t) = h(t) ∗ X(t) = +∞ = −∞ −∞ h(s)X(t − s)ds h(t − s)X(s)ds A fun¸˜o resposta em freq¨ˆncia ´ dada por ca ue e +∞ H(ω) = F {h(t)} = h(t)e−iωt dt −∞ Um sistema ´ dito causal se h(t) = 0 , t < 0. e Se a entrada do sistema linear invariante no tempo for um processo estoc´stico X(t) ent˜o a a +∞ Y (t) = −∞ +∞ h(s)X(t − s)ds = −∞ h(t − s)X(s)ds. A m´dia de Y (t) ´ dada por e e +∞ E[Y (t)] = E −∞ +∞ h(s)X(t − s)ds = −∞ h(s)E[X(t − s)]ds ⇒ mY (t) = mX (t) ∗ h(t) Devemos observar que se X(t) ´ estacion´rio no sentido amplo mY (t) = H(0)mX . e a A fun¸˜o autocorrela¸˜o de Y (t) (estacion´rio no sentido amplo) ´ dada por ca ca a e RY (t1 , t2 ) = E[Y (t1 )Y (t2 )] = E[Y (t)Y (t + τ )] = +∞ =E +∞ X(t − s)h(s)ds −∞ +∞ +∞ = −∞ −∞ +∞ +∞ = −∞ −∞ −∞ X(t + τ − r)h(r)dr h(s)h(r)E[X(t − s)X(t + τ − r)]drds = h(s)h(r)RX (τ + s − r)dsdr Considerando X(t) estacion´rio no sentido amplo, RX depender´ s´ de τ e, conseq¨ entemente, a a o u E[Y (t)Y (t + τ )] depender´ s´ de τ . a o 77
  • 79. Como E[Y (t)] ´ constante, conclu´ e ımos que Y (t) ´ estacion´rio no sentido amplo. e a A densidade espectral de Y (t) ´ dada por e +∞ RY (τ )e−jωτ dτ SY (ω) = −∞ +∞ +∞ +∞ h(s)h(r)RX (u)e−jω(u−s+r)dsdrdu = −∞ −∞ +∞ −∞ jωs = h(s)e −∞ +∞ +∞ −jωr ds h(r)e RX (u)e−jωu du dr −∞ −∞ = H * (ω)H(ω)SX (ω) =| H(ω) |2 SX (ω) Tamb´m, e +∞ RY X (τ ) = E[Y (t + τ )X(t)] = E X(t) −∞ +∞ = −∞ X(t + τ − r)h(r)dr E[X(t)X(t + τ − r)]h(r)dr = +∞ −∞ RX (τ − r)h(r)dr = RX (τ ) ∗ h(τ ) E, SY X (ω) = H(ω)SX (ω). Como RXY (τ ) = RY X (−τ ), temos: ∗ SXY (ω) = SY X (ω) = H ∗ (ω)SX (ω) RESUMO: (i) SX (ω) = F {RX (τ )} (ii) H(ω) = F {h(t)} (iii) mY (t) = mX (t) ∗ h(t) (iv) SY (ω) =| H(ω) |2 SX (ω) = H ∗ (ω)H(ω)SX (ω) ∗ (v) SXY (ω) = SY X (ω) = H ∗ (ω)SX (ω) (vi) SY X (ω) = H(ω)SX (ω) Exemplos: (a) Encontre a densidade espectral da sa´ de um sistema linear invariante no tempo,c ıda om fun¸˜o resposta em freq¨ˆncia H(ω), cuja entrada ´ um processo de ru´ branco, com ca ue e ıdo N0 densidade espectral de potˆncia e . 2 78
  • 80. Solu¸˜o: ca N0 , ∀ω. 2 N0 Assim, SY (ω) =| H(ω) |2 . 2 Temos, SX (ω) = (b) Ache a fun¸˜o resposta ao impulso de um filtro causal que pode ser usado para gerar ca σ 2 −α|τ | um processo aleat´rio gaussiano com fun¸˜o autocorrela¸˜o dada por RY (τ ) = o ca ca e . 2α Solu¸˜o: ca Temos, RY (τ ) = E, σ 2 −α|τ | σ2 e ⇒ SY (ω) = 2 2α α + ω2 1 σ2 (α + jω)(α − jω) 1 ⇒ h(t) = e−αt , t ≥ 0. Consideramos H(ω) = α + jω SY (ω) = 79
  • 81. Chapter 10 Referˆncias e [1] Alberto Leon-Garcia, ”Probability and Random Processes for Electrical Engineering”, second edition, Addinson-Wesley Publishing Company, 1994. [2] B. P. Lathi, ”Sistemas de Comunica¸˜o”, Editora Guanabara, 1979. ca [3] Jos´ Paulo de Almeida e Albuquerque; Jos´ Mauro Pedro Fortes; Weiler Alves Finamore, e e ”Modelos Probabil´ ısticos em Engenharia El´trica”, apostila do CETUC - PUC-Rio. e [4] Athanasios Papoulis, ”Probability, Random Variables, and Stochastic Processes”, Ed. McGraw-Hill Series in Electrical Engineering. 80

×