Apostila processos estocásticos

682 views

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
682
On SlideShare
0
From Embeds
0
Number of Embeds
12
Actions
Shares
0
Downloads
52
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Apostila processos estocásticos

  1. 1. Universidade Federal Fluminense Mestrado em Engenharia de Telecomunica¸˜es co Processos Estoc´sticos I a apostila usada no curso Prof. Edson Cataldo
  2. 2. Contents 1 Modelos 1.1 Introdu¸˜o . . . . . . . . . . . . . . . . . ca 1.2 Modelos matem´ticos . . . . . . . . . . . a 1.3 Simula¸˜o computacional . . . . . . . . . ca 1.4 Modelos determin´ ısticos . . . . . . . . . 1.5 Modelos probabil´ ısticos . . . . . . . . . . 1.6 Regularidade estat´ ıstica . . . . . . . . . 1.7 Propriedades de freq¨ˆncia relativa . . . ue 1.8 Constru¸˜o de um modelo probabil´ ca ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 4 4 4 4 5 5 6 2 Conceitos b´sicos da Teoria de Probabilidade a 2.1 Especifica¸˜o de experimentos aleat´rios . . . ca o 2.2 O espa¸o amostral . . . . . . . . . . . . . . . c 2.3 Eventos . . . . . . . . . . . . . . . . . . . . . 2.4 Axiomas de probabilidade . . . . . . . . . . . 2.5 Espa¸os amostrais discretos e cont´ c ınuos . . . . 2.6 Probabilidade Condicional . . . . . . . . . . . 2.6.1 Defini¸˜o . . . . . . . . . . . . . . . . ca 2.6.2 Teorema da Probabilidade total . . . . 2.6.3 Regra de Bayes . . . . . . . . . . . . . 2.7 Eventos independentes . . . . . . . . . . . . . 2.8 A lei de probabilidade binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 9 10 10 10 12 12 14 14 3 Vari´veis Aleat´rias a o 3.1 Defini¸˜o . . . . . . . . . . . . . . . . ca 3.2 Fun¸˜o distribui¸˜o de probabilidade ca ca 3.3 Tipos de vari´veis aleat´rias . . . . . a o 3.3.1 Vari´vel aleat´ria discreta . . a o 3.3.2 Vari´vel aleat´ria cont´ a o ınua . . 3.3.3 Vari´vel aleat´ria mista . . . a o 3.4 Fun¸˜o densidade de probabilidade . ca 3.5 Exemplos de vari´veis aleat´rias . . . a o 3.5.1 Vari´veis aleat´rias discretas . a o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 16 19 19 19 20 21 23 23 . . . . . . . . . 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
  3. 3. 3.5.2 Vari´veis aleat´rias cont´ a o ınuas . . . . . . . . . . . . . . . . . . . . . . . . 24 4 Vetores de vari´veis aleat´rias a o 4.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . . . . . . ca 4.2 Eventos associados a vetores aleat´rios . . . . . . . o 4.3 Independˆncia . . . . . . . . . . . . . . . . . . . . . e 4.4 Fun¸˜o distribui¸˜o de probabilidade conjunta . . . ca ca 4.4.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . ca 4.4.2 Propriedades da F.D.P. conjunta . . . . . . 4.5 Fun¸˜o densidade de probabilidade conjunta . . . . ca 4.5.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . ca 4.5.2 Propriedades da f.d.p. conjunta . . . . . . . 4.6 Fun¸˜es distribui¸˜o e densidade condicionais . . . co ca 4.6.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . ca 4.6.2 Independˆncia entre duas vari´veis aleat´rias e a o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 27 27 28 28 28 29 30 30 30 32 32 33 5 Fun¸˜es de vari´veis aleat´rias co a o 37 5.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 ca 5.2 Fun¸˜o densidade de probabilidade de Y = g(X) . . . . . . . . . . . . . . . . . . 37 ca 6 Valor esperado, variˆncia e desvio padr˜o de vari´veis aleat´rias a a a o 6.1 Valor esperado (ou m´dia) de um v.a . . . . . . . . . . . . . . . . . e 6.2 Variˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 6.3 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Momentos de ordem k . . . . . . . . . . . . . . . . . . . . . 6.3.2 Momento central de ordem k . . . . . . . . . . . . . . . . . . 6.3.3 Valor esperado de um vetor aleat´rio . . . . . . . . . . . . . o 6.4 Matriz Covariˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . a 6.5 Momentos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Defini¸˜es . . . . . . . . . . . . . . . . . . . . . . . . . . . . co 6.5.2 Coeficiente de correla¸˜o . . . . . . . . . . . . . . . . . . . . ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Processos Estoc´sticos a 7.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 7.2 Especifica¸˜o de um processo estoc´stico . . . . . . . . . . . . . . . . . . . . . . ca a 7.3 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 M´dia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 7.3.2 Autocorrela¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 7.3.3 Autocovariˆncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 7.4 Processos estoc´sticos (estritamente) estacion´rios . . . . . . . . . . . . . . . . . a a 7.5 Processos estoc´sticos estacion´rios no sentido amplo ou fracamente estacion´rios a a a 7.5.1 Defini¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 7.5.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Estat´ ısticas conjuntas de processos estoc´sticos . . . . . . . . . . . . . . . . . . a 2 41 41 42 43 43 43 43 44 45 45 45 47 47 48 50 50 50 50 52 52 52 53 53
  4. 4. 7.6.1 7.6.2 7.6.3 7.6.4 Especifica¸˜o conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca Momentos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Processos estoc´sticos conjuntamente estacion´rios . . . . . . . . . . . . a a Propriedades da fun¸˜o correla¸˜o cruzada de dois processos estoc´sticos ca ca a conjuntamente estacion´rios . . . . . . . . . . . . . . . . . . . . . . . . . a 7.6.5 Independˆncia, n˜o-correla¸˜o e ortogonalidade . . . . . . . . . . . . . . e a ca 7.6.6 Processos Erg´dicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 7.7 Processos estoc´sticos gaussianos . . . . . . . . . . . . . . . . . . . . . . . . . . a 8 Revis˜o de an´lise de Fourier a a 8.1 Introdu¸˜o . . . . . . . . . . ca 8.2 S´rie de Fourier . . . . . . . e 8.3 Transformada de Fourier . . 8.4 Convolu¸˜o . . . . . . . . . ca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 An´lise e processamento de sinais aleat´rios a o 9.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ca 9.2 Alguns conceitos sobre sinais determin´ ısticos . . . . . . . . . . 9.2.1 Energia e Potˆncia de um sinal . . . . . . . . . . . . . e 9.2.2 Algumas f´rmulas relacionadas a sinais determin´ o ısticos 9.2.3 Teorema de Parseval . . . . . . . . . . . . . . . . . . . 9.2.4 Densidade espectral de energia e de potˆncia . . . . . . e 9.3 Correla¸˜o cruzada e autocorrela¸˜o . . . . . . . . . . . . . . . ca ca 9.3.1 Introdu¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . ca 9.3.2 Defini¸˜o . . . . . . . . . . . . . . . . . . . . . . . . . ca 9.4 Densidade espectral de potˆncia para sinais aleat´rios . . . . . e o 9.5 Teorema - Sx (ω) = F {Rx (τ )} . . . . . . . . . . . . . . . . . . 9.6 Resposta de sistemas lineares a sinais aleat´rios . . . . . . . . o 10 Referˆncias e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 53 54 54 54 55 55 . . . . 57 57 57 63 68 . . . . . . . . . . . . 70 70 70 70 71 71 72 72 72 73 73 74 77 80 3
  5. 5. Chapter 1 Modelos 1.1 Introdu¸˜o ca Podemos dizer que um modelo (matem´tico, f´ a ısico, probabil´ ıstico, econˆmico,...) ´ uma repo e resenta¸˜o de uma situa¸˜o existente. Seu objetivo ´ explicar um determinado comportamento ca ca e prevendo o resultado de experimentos envolvendo a tal situa¸˜o. ca 1.2 Modelos matem´ticos a Modelos matem´ticos s˜o usados quando o fenˆmeno observado tem propriedades mena a o sur´veis e consiste de um conjunto de considera¸˜es e rela¸˜es matem´ticas sobre o funcionaa co co a mento do sistema em observa¸˜o. ca 1.3 Simula¸˜o computacional ca A simula¸˜o computacional ´ realizada atrav´s de programas que ir˜o gerar os resultados ca e e a previstos pelo modelo. 1.4 Modelos determin´ ısticos Em modelos determin´ ısticos, as condi¸˜es sob as quais um experimento ´ realizado determina co e o exato resultado desse experimento. Nesses modelos, a solu¸˜o de um conjunto de equa¸˜es especifica o exato resultado do ca co experimento. 1.5 Modelos probabil´ ısticos Definimos um experimento aleat´rio como aquele no qual os resultados variam, embora o o experimento seja repetido sob as mesmas condi¸˜es. Os modelos probabil´ co ısticos ir˜o prever a 4
  6. 6. poss´ ıveis resultados ou faixa de resultados para os sistemas em que os resultados s˜o aleat´rios; a o isto ´, embora as entradas sejam as mesmas, as sa´ e ıdas s˜o diferentes. a 1.6 Regularidade estat´ ıstica Muitos modelos probabil´ ısticos s˜o baseados no fato de que m´dias obtidas em longas a e seq¨ˆncias de repeti¸˜es de experimentos aleat´rios tˆm o mesmo valor. Esta propriedade ue co o e ´ chamada de regularidade estat´ e ıstica. Considere o seguinte exemplo: “Uma bola ´ selecionada de uma urna contendo trˆs bolas idˆnticas numeradas com os e e e n´ meros 0,1 e 2. O n´ mero da bola ´ anotado e a bola ´ retornada ` urna.” u u e e a O resultado deste experimento ´ um n´ mero do conjunto S = {0, 1, 2}. e u Suponha que o experimento seja repetido n vezes sob condi¸˜es idˆnticas. Sejam N0 (n), co e N1 (n) e N2 (n) o n´ mero de vezes no qual os resultados s˜o as bolas 0, 1 e 2, respectivamente. u a Nk (n) Definimos a freq¨ˆncia relativa do resultado k, k = 0, 1 ou 2, por: fk (n) = ue . n De acordo com o que chamamos de regularidade estat´ ıstica, fk (n) varia menos, em torno de uma constante, ` medida que n ´ tomado grande; isto ´, lim fk (n) = pk . A constante pk ´ a e e e n→+∞ chamada de probabilidade do resultado k. Em modelos probabil´ ısticos, as condi¸˜es sob as quais um experimento aleat´rio ´ realizado co o e determina as probabilidades dos resultados do experimento. 1.7 Propriedades de freq¨ˆncia relativa ue Suponha que um experimento aleat´rio tenha K poss´ o ıveis resultados; isto ´, S = {1, 2, . . . , K}. e Suponha que o experimento tenha sido repetido n vezes e considere que Nk (n) ´ o n´ mero de e u vezes em que o resultado obtido foi k, sendo k = 1, 2, . . . , K. Temos, 0 ≤ Nk (n) ≤ n , k = 1, 2, . . . , K. Assim, 0 ≤ fk (n) ≤ 1 , k = 1, 2, . . . , K. K Tamb´m, e k=1 K Nk (n) = n ⇒ fk (n) = 1. k=1 Algumas vezes estamos interessados na ocorrˆncia de eventos associados com os resultados e de um experimento. Por exemplo, considere o exemplo da se¸˜o anterior e o caso em que “uma bola de n´ mero ca u diferente de 1 ´ selecionada”. e Se uma bola de n´ mero diferente de 1 ´ selecionada, ent˜o uma bola de n´ mero 0 ou 2 foi u e a u selecionada. Logo, a freq¨ˆncia relativa, neste caso, ser´ obtida fazendo: ue a Ncaso (n) = N0 (n) + N2 (n) ⇒ fcaso (n) = 5 N0 (n) + N2 (n) = f0 (n) + f2 (n). n
  7. 7. 1.8 Constru¸˜o de um modelo probabil´ ca ıstico Podemos, portanto, dizer que para a constru¸˜o de um modelo probabil´ ca ıstico devemos: (i) definir o experimento aleat´rio correspondente; o (ii) especificar o conjunto S de todos os poss´ ıveis resultados. Chamaremos esse conjunto de espa¸o amostral; c (iii) especificar uma associa¸˜o de probabilidades para todos os casos de interesse. Definiremos ca mais adiante esses casos atrav´s do que chamaremos de eventos. e H´ uma infinidade de aplica¸˜es de modelos probabil´ a co ısticos. Em Telecomunica¸˜es, podemos co citar, sistemas de transmiss˜o de voz, tr´fego telefˆnico, desvanecimento de sinais radioel´tricos. a a o e 6
  8. 8. Chapter 2 Conceitos b´sicos da Teoria de a Probabilidade 2.1 Especifica¸˜o de experimentos aleat´rios ca o Um experimento aleat´rio ´ um experimento no qual o resultado varia de forma, digamos, o e imprevis´ quando o experimento ´ repetido sob as mesmas condi¸˜es. Podemos dizer, de ıvel e co maneira informal, que um experimento aleat´rio ser´ especificado pela implementa¸˜o de um o a ca procedimento experimental e por um conjunto de uma ou mais medidas de observa¸˜es. co Exemplos de experimentos aleat´rios: o Consideremos os seguintes experimentos: (a) E1 : Selecione uma bola de uma urna contendo bolas numeradas de 1 a 50. Anote o n´ mero da bola. u (b) E2 : Lance uma moeda trˆs vezes. Anote o n´ mero de caras. e u (c) E3 : Transmita um bloco de informa¸˜es atrav´s de um canal ruidoso, repetidamente, co e at´ que um bloco livre de erros chegue ao receptor. Conte o n´mero de transmiss˜es e u o requeridas. (d) E4 : Escolha um n´ mero real ao acaso entre zero e um. Anote esse n´ mero. u u 2.2 O espa¸o amostral c Embora os resultados em experimentos aleat´rios sejam imprevis´ o ıveis, ´ necess´rio determie a nar o conjunto de poss´ ıveis resultados. Definimos resultado ou ponto amostra ou simplesmente amostra de um experimento aleat´rio o como um resultado que n˜o pode ser decomposto em outros resultados. Dessa forma, quando a realizamos um experimento aleat´rio um, e somente um, resultado ocorre. Assim, os resultados o 7
  9. 9. s˜o mutuamente exclusivos no sentido de que eles n˜o podem ocorrer simultaneamente. a a Definimos o espa¸o amostral S de um experimento aleat´rio como o conjunto de todos os c o resultados poss´ ıveis. Denotaremos um resultado de um experimento aleat´rio por ξ. Assim, ξ o ´ um elemento de S. e Exemplos: A seguir est˜o exemplos de espa¸os amostrais, relacionados com os experimentos E1 , E2 , a c E3 e E4 , respectivamente. (a) S1 = {1, 2, . . . , 50} (b) S2 = {0, 1, 2, 3} (c) S3 = {1, 2, 3, . . .} (d) S4 = {x ∈ R : 0 ≤ x ≤ 1} = [0, 1] Chamaremos S de espa¸o amostral discreto se S for cont´vel e chamaremos S de espa¸o c a c amostral cont´ ınuo, se S n˜o for cont´vel. Nos exemplos, S1 , S2 e S3 s˜o discretos e S4 ´ cont´ a a a e ınuo. 2.3 Eventos Normalmente, n˜o estamos interessados apenas nos resultados de um experimento, mas se a o resultado desse experimento satisfaz certas condi¸˜es. As condi¸˜es de interesse definem um co co subconjunto do espa¸o amostral; ou melhor, o conjunto de resultados ξ de S que satisfazem as c condi¸˜es dadas. co Definimos evento como um subconjunto de S. O evento chamado evento certo ´ o e pr´prio conjunto S e consiste de todos os resultados poss´ o ıveis e o evento nulo ou imposs´ ıvel n˜o cont´m nenhum resultado poss´ a e ıvel. Exemplos de eventos: A seguir est˜o exemplos de eventos relacionados com os experimentos E1 , E2 , E3 e E4 , a respectivamente. (a) e1 : “um n´ mero par ´ selecionado” - e1 = {2, 4, . . . , 48, 50}. u e (b) e2 : “o n´ mero de caras ´ igual ao n´ mero de coroas” - e2 = ∅. u e u (c) e3 : “menos que dez transmiss˜es s˜o requeridas” - e3 = {1, 2, . . . , 9}. o a (d) e4 : “o n´ mero selecionado ´ n˜o-negativo” - e4 = S4 . u e a 8
  10. 10. 2.4 Axiomas de probabilidade Probabilidades s˜o n´ meros associados a eventos que indicam qu˜o “prov´vel” ´ a ocorrˆncia a u a a e e de um evento quando um experimento ´ realizado e uma “lei” de probabilidade ´ uma fun¸˜o e e ca que associa um n´ mero a um evento. u Seja E um experimento aleat´rio com espa¸o amostral S. Uma lei de probabilidade para o c o experimento E ´ uma “regra” que associa a cada evento A um n´ mero P [A], chamado de e u probabilidade de A. A lei de probabilidade deve satisfazer os seguintes axiomas: (i) P [A] ≥ 0 (ii) P [S] = 1 (iii) Se A ∩ B = ∅ ⇒ P [A ∪ B] = P [A] + P [B] (iii)’ Se A1 , A2 , . . . ´ uma sequˆncia de eventos tais que Ai ∩ Aj = ∅, para todos i = j, ent˜o e e a P [∪∞ Ak ] = k=1 ∞ P [Ak ] k=1 Corol´rios: a (i) P [Ac ] = 1 − P [A] (ii) P [A] ≤ 1 (iii) P [∅] = 0 (iv) Se A1 , A2 , . . . , An s˜o mutuamente exclusivos 2 a 2 ent˜o a a n P [∪n Ak ] k=1 = k=1 P [Ak ] , n ≥ 2 (v) P [A ∪ B] = P [A] + P [B] − P [A ∩ B] (vi) P [A ∪ B ∪ C] = P [A] + P [B] + P [C] − P [A ∩ B] − P [A ∩ C] − P [B ∩ C] + P [A ∩ B ∩ C] n (vii) P [∪n Ak ] = k=1 j=1 P [Aj ] − j<k P [Aj ∩ Ak ] + . . . + (−1)n+1 P [A1 ∩ . . . ∩ An ] (viii) P [A ∪ B] ≤ P [A] + P [B] (ix) Se A ⊂ B ⇒ P [A] ≤ P [B] 9
  11. 11. 2.5 Espa¸os amostrais discretos e cont´ c ınuos Considere S = {a1 , a2 , . . . , an } um espa¸o amostral finito, sendo todos os eventos elec mentares s˜o mutuamente exclusivos. Assim, a probabilidade de qualquer evento B = {a′1 , a′2 , . . . , a′n } a ´ dada por P [B] = P [{a′1 , a′2 , . . . , a′m }] = P [{a′1 }] + P [{a′2 }] + . . . + P [{a′m }]. e Considerando S um espa¸o amostral infinitamente cont´vel, digamos S = {b1 , b2 , . . . , bn }, a c a probabilidade do evento D = {b′1 , b′2 , . . .} ´ dada por P [D] = P [{b′1 }] + P [{b′2 }] + . . .. e Se os resultados do espa¸o amostral discreto S s˜o igualmente prov´veis ent˜o a probabilic a a a dade de um evento ´ igual ` raz˜o entre o n´ mero de elementos do evento e o n´ mero total de e a a u u elementos do espa¸o amostral. c Espa¸os amostrais cont´ c ınuos aparecem em experimentos nos quais os resultados s˜o n´ meros a u reais. Os eventos de interesse nesses experimentos consistem de intervalos da reta real e de complementos, uni˜es e interse¸˜es desses eventos. Por esta raz˜o, leis de probabilidade em o co a experimentos com espa¸os amostrais cont´ c ınuos especificam uma regra para associar n´ meros a u intervalos da reta real. Considere o seguinte exemplo: “Tome um n´ mero x ao acaso entre zero e um”. u O espa¸o amostral S para esse experimento ´ o intervalo [0, 1], que n˜o ´ cont´vel. c e a e a Se n´s supomos que todos os resultados de S s˜o igualmente prov´veis, ent˜o podemos o a a a pensar que a probabilidade de o resultado estar no intervalo [0, 1/2] ´ a mesma de o resultado e 1 estar no intervalo [1/2, 1] e seria igual a . Por´m, como h´ infinitos n´ meros (incont´veis) e a u a 2 1 neste intervalo, a probabilidade de o resultado ser exatamente igual a , por exemplo, seria 2 1 zero. Da mesma forma, a probabilidade de o resultado ser exatamente igual a , por exemplo, 4 tamb´m seria zero. e 2.6 2.6.1 Probabilidade Condicional Defini¸˜o ca Muitas vezes estamos interessados em determinar se dois eventos, digamos A e B, est˜o a relacionados, no sentido de que o conhecimento da probabilidade associada a um deles altera a probabilidade associada ao outro. Queremos encontrar a probabilidade P [A|B], isto ´, a probabilidade do evento A, conhecida e a probabilidade do evento B. Em outras palavras, de uma maneira informal, queremos encontrar a probabilidade do evento A, dado que o evento B ocorreu. A probabilidade condicional P [A|B] ´ definida por: e P [A|B] = P [A ∩ B] , P [B] > 0 . P [B] 10
  12. 12. Exemplos: (a) Uma urna cont´m duas bolas pretas numeradas (1 e 2) e duas bolas brancas, tamb´m e e numeradas (3 e 4). Retira-se uma bola da urna e anota-se seu n´mero e sua cor. Assim, O u espa¸o amostral desse experimento ´ S = {(1, p), (2, p), (3, b), (4, b)}. Considere que os quatro c e resultados s˜o igualmente prov´veis e os seguintes eventos: a a A = {(1, p), (2, p)} - bola preta selecionada B = {(2, p), (4, b)} - bola com n´ mero par selecionada u C = {(3, b), (4, b)} - n´ mero da bola ´ maior que 2 u e Determine: (i) P [A|B] Solu¸˜o: ca P [A|B] = P [A ∩ B] 1/4 1 = = = P [A] P [B] 2/4 2 (ii) P [A|C] Solu¸˜o: ca P [A|C] = P [A ∩ C] 0/4 = = 0 = P [A] P [C] 2/4 Observe que em (i) o conhecimento de B n˜o alterou a probabilidade de A P [A] = a 2 1 = . 4 2 Por´m, no segundo caso, o conhecimento de C implicou que A n˜o tinha ocorrido. e a OBS: Em alguns problemas ´ conveniente usar a f´rmula P [A ∩ B] = P [B|A]P [A] ou e o P [A ∩ B] = P [A|B]P [B]. (b) Uma urna cont´m duas bolas pretas e trˆs bolas brancas. Duas bolas s˜o selecionadas e e a ao acaso, sem reposi¸˜o, e a sequˆncia das bolas ´ anotada. Encontre a probabilidade de as ca e e duas bolas selecionadas serem pretas. Solu¸˜o: ca Considere os eventos: B1 - a primeira bola ´ preta e preta. Queremos calcular P [B1 ∩ B2 ]. e B2 - a segunda bola ´ e 2 1 Temos que, P [B1 ∩ B2 ] = P [B2 |B1 ]P [B1 ]. Mas, P [B2 |B1 ] = e P [B1 ] = . 4 5 2 1 1 Logo, P [B1 ∩ B2 ] = × = . 5 4 10 11
  13. 13. 2.6.2 Teorema da Probabilidade total Sejam B1 , B2 , . . . , Bn eventos mutuamente exclusivos cuja uni˜o ´ igual ao espa¸o amostral a e c S. Nos referimos a esses conjuntos como uma parti¸˜o do conjunto S. ca Qualquer evento A pode ser representado como a uni˜o de eventos mutuamente exclusivos. a Temos, A = A ∩ S = A ∩ (B1 ∪ B2 ∪ · · · ∪ Bn ) = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bn ). E, P [A] = P [A ∩ B1 ] + P [A ∩ B2 ] + . . . + P [A ∩ Bn ] ou P [A] = P [A|B1 ]P [B1 ] + P [A|B2 ]P [B2 ] + . . . + P [A|Bn ]P [Bn ]. Exemplo: Considere uma urna contendo duas bolas pretas e trˆs bolas brancas. Encontre a probabie lidade de ao retirarmos duas bolas, ao acaso, sem reposi¸˜o, a segunda ser branca. ca Solu¸˜o: ca Para usar o Teorema da Probabilidade Total, devemos encontrar uma parti¸˜o do espa¸o ca c amostral S. Consideremos os dois seguintes eventos: A1 - a primeira bola ´ preta e e B1 - a primeira bola ´ branca. e Observamos que S = A1 ∪ B1 . Consideremos, ent˜o, o seguinte evento: C - a segunda bola ´ branca. a e Queremos calcular P [C]. Assim, P [C] = P [C|A1 ]P [A1 ] + P [C|B1 ]P [B1 ]. Portanto, P [C] = 2.6.3 3 3 2 2 3 × + × = . 4 5 4 5 5 Regra de Bayes Considere B1 , B2 , . . . , Bn a parti¸˜o de um espa¸o amostral S. Queremos calcular a probaca c bilidade do evento Bj , dado que o evento A ocorreu, sendo A um evento qualquer. Pela defini¸˜o de probabilidade condicional temos: ca 12
  14. 14. P [Bj |A] = P [A ∩ Bj ] P [A] Mas, P [A|Bj ] = P [A ∩ Bj ] ⇒ P [A ∩ Bj ] = P [A|Bj ]P [Bj ] P [Bj ] Assim, P [Bj |A] = P [A|Bj ]P [Bj ] P [A ∩ Bj ] = = P [A] P [A] P [A|Bj ]P [Bj ] n P [A|Bj ]P [Bj ] j=1 conhecida como Regra de Bayes. Exemplo: Considere quatro caixas contendo componentes eletrˆnicos. A caixa 1 cont´m 2000 compoo e nentes, sendo 5% defeituosos. A caixa 2 cont´m 500 componentes, sendo 40% defeituosos. As e caixas 3 e 4 contˆm 1000 componentes cada, com 10% defeituosos. e Selecionamos uma caixa, ao acaso, e retiramos um componente, tamb´m ao acaso. e (a) Qual ´ a probabilidade de o componente retirado ser defeituoso? e Solu¸˜o: ca Seja D o evento “componente defeituoso” e seja Bi o evento “componente da i-´sima e caixa”. Queremos P [D]. Assim, P [D] = P [D|B1 ]P [B1 ] + P [D|B2 ]P [B2 ] + P [D|B3]P [B3 ] + P [D|B4]P [B4 ]. 100 1 200 1 100 1 100 1 E, P [D] = × + × + × + × = 0, 1625. 2000 4 500 4 1000 4 1000 4 (b) Examinamos o componente selecionado e comprovamos que ´ defeituoso. Qual ´ a probe e abilidade de ser da caixa 2? Solu¸˜o: ca 200 1 × P [D|B2 ]P [B2 ] = 500 4 = 0, 615. P [B2 |D] = P [D] 0, 1625 13
  15. 15. 2.7 Eventos independentes Se o conhecimento do evento B n˜o altera a probabilidade do evento A , dizemos que o a evento A ´ independente do evento B. e P [A ∩ B] Temos, P [A] = P [A|B] = . Portanto, dizemos que A e B s˜o eventos indepena P [B] dentes se P [A ∩ B] = P [A]P [B]. Observamos que se A e B s˜o eventos independentes ent˜o P [A|B] = P [A] e P [B|A] = P [B]. a a Exemplo: Uma bola ´ selecionada de uma urna contendo duas bolas pretas numeradas (1 e 2) e duas e bolas brancas numeradas (3 e 4 ). Considere os seguintes eventos: A: “bola preta selecionada” B: “n´ mero par selecionado” u C: “n´ mero da bola maior que 2 (dois)” u (a) Verifique se os eventos A e B s˜o independentes. a (b) Verifique se os eventos A e C s˜o independentes. a Solu¸˜o: ca 1 1 (a) P [A] = P [B] = , P [A ∩ B] = , P [A ∩ B] = P [A]P [B] . 2 4 Logo, os eventos A e B s˜o independentes. a (b) P [A ∩ C] = P [∅] = 0 = P [A] = 0, 5 . Portanto, os eventos A e C n˜o s˜o independentes. a a OBS: Se dois eventos tˆm probabilidade n˜o-nula e s˜o mutuamente exclusivos ent˜o eles n˜o e a a a a podem ser independentes. Prove isso! 2.8 A lei de probabilidade binomial Considere a realiza¸˜o de um experimento e a verifica¸˜o de um evento, digamos A. Dizemos ca ca que o resultado da chamada tentativa de Bernouilli ´ um sucesso se A ocorre e uma falha caso e contr´rio. Estamos interessados em encontrar a probabilidade de k sucessos em n repeti¸˜es a co independentes de tentativas de Bernouilli. 14
  16. 16. Teorema: A probabilidade de k sucessos em n tentativas (independentes) de Bernouilli ´ dada pela lei e de probabilidade binomial k pn (k) = Cn pk (1 − p)n−k , k = 0, . . . , n sendo p a probabilidade de um sucesso e pn (k) a probabilidade de k sucessos em n tentativas n! k e Cn = ´ o coeficiente binomial. e k!(n − k)! Exemplo: Suponha que uma moeda seja lan¸ada trˆs vezes. Se admitirmos que os lan¸amentos s˜o inc e c a dependentes e a probabilidade de se obter cara, em um lan¸amento, ´ p, ent˜o as probabilidades c e a da sequˆncia de caras e coroas ´: e e 3 P [trˆs caras] = C3 p3 (1 − p)0 = p3 e 2 P [duas caras e uma coroa] = C3 p2 (1 − p)1 = 3p2 (1 − p) 1 P [duas coroas e uma cara] = C3 p1 (1 − p)2 = 3p(1 − p)2 0 P [trˆs coroas] = C3 p0 (1 − p)3 = (1 − p)3 e 15
  17. 17. Chapter 3 Vari´veis Aleat´rias a o 3.1 Defini¸˜o ca Uma vari´vel aleat´ria X ´ uma fun¸˜o que associa um n´ mero real X(ξ) a cada resultado a o e ca u ξ do espa¸o amostral de um experimento aleat´rio. c o O espa¸o amostral S ´ o dom´ c e ınio da vari´vel aleat´ria e o conjunto SX de todos os valores a o obtidos para X ´ a imagem da vari´vel aleat´ria (SX ⊂ R). e a o Assim, X : S −→ R ξ −→ X(ξ) . Exemplo: Considere o seguinte experimento: “lan¸amento de uma moeda trˆs vezes e anotar a seq¨ˆncia de caras e coroas obtida”. c e ue Temos, S = {ccc, cck, ckc, ckk, kcc, kck, kkc, kkk}. Seja X o n´ mero de caras obtidas nos trˆs lan¸amentos. u e c Temos, ξ : ccc cck ckc ckk kcc kck kkc kkk X: 3 2 2 1 2 1 1 0 Portanto, X ´ uma vari´vel aleat´ria com valores em SX = {0, 1, 2, 3}. e a o 3.2 Fun¸˜o distribui¸˜o de probabilidade ca ca A fun¸˜o distribui¸˜o de probabilidade (F.D.P.), tamb´m chamada de fun¸˜o distribui¸˜o ca ca e ca ca cumulativa, de uma vari´vel aleat´ria X, ´ definida como a probabilidade do evento {X ≤ x}. a o e Assim, FX (x) = P [X ≤ x] , x ∈ R. 16
  18. 18. Propriedades: (i) 0 ≤ FX (x) ≤ 1 (ii) lim FX (x) = 1 x→+∞ (iii) lim FX (x) = 0 x→−∞ (iv) FX ´ n˜o-decrescente e a (v) FX ´ cont´ e ınua ` direita a (vi) P [a < X ≤ b] = FX (b) − FX (a). OBS: {X ≤ a} ∪ {a < X ≤ b} = {X ≤ b}. Logo, FX (a) + P [a < X ≤ b] = FX (b) e P [a < X ≤ b] = FX (b) − FX (a). (vii) P [X = b] = FX (b) − FX (b− ) (viii) P [a ≤ X ≤ b] = FX (b) − FX (a− ) OBS: Se FX ´ cont´ e ınua ent˜o a P [a ≤ X ≤ b] = P [a < X < b] = P [a ≤ X < b] = P [a < X ≤ b]. (ix) P [X > x] = 1 − FX (x) OBS: Definimos fun¸˜o de massa de probabilidade (FMP) de X, pX , por pX (xk ) = P [X = xk ]. ca Exemplos: (a) Considere o lan¸amento de uma moeda trˆs vezes. Seja X a vari´vel aleat´ria que c e a o associa o resultado com o n´ mero de caras obtido. Encontre a express˜o da fun¸˜o distribui¸˜o u a ca ca de probabilidade FX . Solu¸˜o: ca A defini¸˜o da vari´vel aleat´ria X ´ dada por: ca a o e ξ −→ X(ξ) ccc −→ 3 cck −→ 2 ckc −→ 2 ckk −→ 1 kcc −→ 2 kck −→ 1 kkc −→ 1 kkk −→ 0 17
  19. 19. 3 3 1 1 Portanto, P [X = 0] = ; P [X = 1] = ; P [X = 2] = ; P [X = 3] = . 8 8 8 8 Assim, a fun¸˜o distribui¸˜o de probabilidade FX ´ definida por: ca ca e   0, x<0       1   , 0≤x<1   8       4 1 FX (x) = = , 1≤x<2  8 2      7    , 2≤x<3   8       1, x≥3 Podemos escrever 3 3 1 1 FX (x) = 0 + u(x) + u(x − 1) + u(x − 2) + u(x − 3) 8 8 8 8 ou FX (x) = pX (0)u(x) + pX (1)u(x − 1) + pX (2)u(x − 2) + pX (3)u(x − 3). sendo u a fun¸˜o degrau unit´rio definida por u(x) = ca a 0, x<0 1, x≥0 (b) Seja T o tempo de transmiss˜o de uma mensagem atrav´s de um sistema de comua e nica¸˜o. Considere que T obedece ` seguinte lei de probabilidade: ca a P [T > t] = e−λt , λ > 0 , t ≥ 0. Tamb´m, P [T ≤ t] = 0 , t < 0. e (a) Encontre FT (t). (b) Encontre P 1 2 <T ≤ . λ λ Solu¸˜o: ca (a) FT (t) = P [T ≤ t] = (b) P 1 2 <T ≤ = FT λ λ 0, t<0 1 − P [T > t] = 1 − e−λt , t ≥ 0 . 2 λ − FT 1 λ = (1 − e−2 ) − (1 − e−1 ) ≃ 0, 233. 18
  20. 20. 3.3 Tipos de vari´veis aleat´rias a o 3.3.1 Vari´vel aleat´ria discreta a o A F.D.P. de uma vari´vel aleat´ria discreta pode ser escrita na forma a o K FX (x) = k=0 P [X = xk ]u(x − xk ) sendo K ∈ N. Exemplo: Uma fonte produz dois tipos de mensagens: M1 , com probabilidade p de ocorrer e M2 , com probabilidade 1 − p. Seja X a vari´vel aleat´ria definida por a o X(ξ) = 0 , ξ = M1 1 , ξ = M2 . Encontre a express˜o de FX (x). a Solu¸˜o: ca   0, x<0 p, 0≤x<1 FX (x) =  1, x≥1 Assim, FX (x) = P [X = 0]u(x) + P [X = 1]u(x − 1) = pu(x) + (1 − p)u(x − 1) . 3.3.2 Vari´vel aleat´ria cont´ a o ınua Uma vari´vel aleat´ria cont´ a o ınua X tem F.D.P. (FX ) cont´ ınua. OBS: P [X = x] = 0 , ∀x. Exemplo: Seja X a medida de tens˜o de ru´ em um determinado ponto de um circuito com as a ıdo seguintes probabilidades: P [| X |≤ V ] = 1 e P [| X |> V ] = 0. Encontre a express˜o da F.D.P. FX da vari´vel aleat´ria X, considerando que as probabilia a o dades das vari´vel X s˜o uniformemente distribu´ a a ıdas no intervalo [−V, V ]. Solu¸˜o: ca 19
  21. 21. Se x < −V ⇒ P [X ≤ x] = 0 x Se −V ≤ x ≤ V ⇒ P [X ≤ x] = V −V 1 x+V dt = 2V 2V 1 Se x > V ⇒ P [X ≤ x] = dt = 1 −V 2V Assim,   0 , x < −V  x+V FX (x) = , −V ≤ x ≤ V  2V  1, x>V . 3.3.3 Vari´vel aleat´ria mista a o Uma vari´vel aleat´ria mista tem F.D.P. descont´ a o ınua em um conjunto finito de pontos e cresce continuamente em pelo menos um intervalo. Exemplo: Seja X a medida de tens˜o de ru´ em um determinado ponto de um circuito, com as a ıdo seguintes probabilidades: 1 3 P [X = −V ] = P [X = V ] = , P [| X |< V ] = e P [| X |> V ] = 0. 8 4 Escreva a express˜o da F.D.P. (FX ) da vari´vel aleat´ria X, considerando que a vari´vel a a o a aleat´ria X ´ distribu´ uniformemente em (−V, V ). o e ıda Solu¸˜o: ca Se x < −V ⇒ FX (x) = 0. 1 Se x = −V ⇒ FX (x) = P [X ≤ x] = . 8 x 1 3 3 1 dt = (x + V ) + . Se −V < x < V ⇒ FX (x) = + 8 8V 8 −V 8V 7 Se x = V ⇒ FX (x) = . 8 Se x > V ⇒ FX (x) = 1. Assim,   0 , x < −V   3  1   x + , −V ≤ x < V 8V 2 FX (x) =  7 , x=V    8   1, x≥V 20
  22. 22. OBS: (i) Para v.a. cont´ ınuas: FX (x− ) = FX (x). (ii) Para v.a. discretas: FX (xi ) − FX (x− ) = P [X = xi ]. i 3.4 Fun¸˜o densidade de probabilidade ca Seja X uma vari´vel aleat´ria cont´ a o ınua com F.D.P. FX . Podemos escrever FX (x + ∆x) − FX (x) ∆x . ∆x ′ Para ∆x “pequeno”, temos P [x < X ≤ x + ∆x] ≃ FX (x) ∆x. P [x < X ≤ x + ∆x] = FX (x + ∆x) − FX (x) = Logo, de modo informal, podemos dizer que a probabilidade de X estar pr´ximo de x ´ o e ′ FX (x)∆x. Definimos, ent˜o, a densidade de probabilidade da vari´vel aleat´ria X, denotada por fX , a a o pela equa¸˜o: ca ′ fX (x) = FX (x) . Tamb´m, de maneira informal, podemos interpretar a densidade de probabilidade da vari´vel e a aleat´ria X como a quantidade de probabilidade por unidade de medida. o Propriedades: (i) fX (x) ≥ 0. b (ii) P [a ≤ X ≤ b] = fX (x)dx. a x (iii) FX (x) = fX (t)dt. −∞ +∞ (iv) fX (t)dt = 1. −∞ Exemplos: (a) A f.d.p. de uma vari´vel aleat´ria X ´ dada por a o e fX (x) = 1 , a≤x≤b b−a 0, x<aex>b sendo a , b ∈ R. Encontre FX (x). 21
  23. 23. Solu¸˜o: ca Se x < a ⇒ FX (x) = 0 . x Se a ≤ x ≤ b ⇒ FX (x) = Se x > b ⇒ FX (x) = 1 . a 1 x−a dt = . b−a b−a Assim,   0, x<a  x−a , a≤x≤b FX (x) =  b−a  1 , x > b. (b) Seja X uma vari´vel aleat´ria com fun¸˜o densidade de probabilidade fX definida por: a o ca   A(x + 5) , −5 ≤ x ≤ −4 A , −4 < x < 4 fX (x) =  −A(x − 5) , 4 ≤ x ≤ 5 Sendo A uma constante. (i) Fa¸a um esbo¸o do gr´fico de fX . c c a (ii) Determine o valor da constante A. (iii) Determine a express˜o da Fun¸˜o Distribui¸˜o de Probabilidade da vari´vel aleat´ria X. a ca ca a o (iv) Fa¸a um esbo¸o do gr´fico de FX . c c a (v) Determine a probabilidade P [X > 4]. OBS: Quando FX n˜o ´ cont´ a e ınua, podemos estender a defini¸˜o de f.d.p. usando a distribui¸˜o ca ca delta de Dirac, denotada por δ. d Usamos o fato de que, no sentido das distribui¸˜es, co [u(x)] = δ(x), sendo u a distribui¸˜o ca dx degrau unit´rio e δ a distribui¸˜o delta de Dirac. a ca Assim, se X ´ uma vari´vel aleat´ria discreta, temos e a o FX (x) = k P [X = xk ]u(x − xk ) e fX (x) = k P [X = xk ]δ(x − xk ). 22
  24. 24. 3.5 3.5.1 Exemplos de vari´veis aleat´rias a o Vari´veis aleat´rias discretas a o Vari´vel aleat´ria de Bernouilli a o Seja A um evento relacionado aos resultados de algum experimento aleat´rio. A fun¸˜o o ca indicatriz do evento A, denotada por IA , ´ definida por: e 0 , se ξ ∈ A / 1 , se ξ ∈ A . IA (ξ) = Definimos uma vari´vel aleat´ria X = IA e chamamos essa vari´vel aleat´ria de vari´vel a o a o a aleat´ria de Bernouilli. Observamos que SX = {0, 1}. o Escolhendo, por exemplo P [X = 0] = p e P [X = 1] = 1 − p. temos FX (x) = pu(x) + (1 − p)u(x − 1) ⇒ fX (x) = pδ(x) + (1 − p)δ(x − 1). Vari´vel aleat´ria binomial a o Considere que um experimento aleat´rio seja repetido n vezes. Considere A um evento, ξj o o resultado para cada repeti¸˜o do experimento; isto ´, j = 1, . . . , n. SEja X o n´ mero de vezes ca e u que ξk ∈ A. Portanto, X ´ uma vari´vel aleat´ria com SX = {0, 1, . . . , n}. e a o Considerando Ij a fun¸˜o indicatriz para o evento A na j-´sima tentativa, temos X = ca e I1 + I2 + . . . + In . A vari´vel aleat´ria X ´ chamada de vari´vel aleat´ria binomial. a o e a o n pk (1 − p)n−k , k = 0, . . . , n., k sendo P [X = k] a probabilidade de se obter k sucessos em n tentativas. Pelo Teorema Binominal, sabemos que P [X = k] = Temos, n FX (x) = k=0 e n fX (x) = k=0 n k pk (1 − p)n−k u(x − k) n k pk (1 − p)n−k δ(x − k). Essa vari´vel aleat´ria surge em aplica¸˜es onde h´ apenas dois tipos de resultados para a o co a cada experimento, por exemplo, cara/coroa, certo/errado, bom/defeituoso, etc. 23
  25. 25. Vari´vel aleat´ria geom´trica a o e Seja X a vari´vel aleat´ria correspondente ao n´ mero de tentativas de um experimento at´ a o u e a ocorrˆncia de um sucesso. A vari´vel aleat´ria X ´ chamada vari´vel aleat´ria geom´trica e e a o e a o e SX = {1, 2, . . .}. Temos, P [X = k] = (1 − p)k−1 p , k = 1, 2, . . . sendo p a probabilidade de sucesso em cada tentativa (chamada de tentativa de Bernouilli). Temos, +∞ FX (x) = k=1 (1 − p)k−1pu(x − k) e +∞ fX (x) = k=1 (1 − p)k−1 pδ(x − k). Vari´vel aleat´ria de Poisson a o A vari´vel aleat´ria de Poisson X ´ definida por a o e P [X = k] = αk −α e , k = 0, 1, 2, . . . , sendo α uma constante. k! Temos, +∞ FX (x) = k=0 αk −α e u(x − k) ⇒ fX (x) = k! +∞ k=0 αk −α e δ(x − k). k! OBS: Se n ´ grande, p pequeno e α = np, podemos usar a aproxima¸˜o e ca n k 3.5.2 pk (1 − p)n−k ≃ αk −α e . k! Vari´veis aleat´rias cont´ a o ınuas Vari´vel aleat´ria uniforme a o A f.d.p. de uma vari´vel aleat´ria uniforme ´ dada por a o e fX (x) = 1 , a≤x≤b b−a 0 , x < a ou x > b sendo a, b ∈ R e 24
  26. 26.   0, x<a  x−a , a≤x≤b FX (x) =  b−a  1 , x > b. Essa vari´vel aleat´ria aparece quanto todos os valores na reta real, no intervalo [a, b], s˜o a o a igualmente prov´veis. a Vari´vel aleat´ria exponencial a o A f.d.p. da vari´vel aleat´ria exponencial ´ definida por a o e fX (x) = 0, x<0 ⇒ FX (x) = λe−λx , x ≥ 0 0, x<0 1 − e−λx , x ≥ 0 . Sendo λ um n´ mero real. u Essa vari´vel aleat´ria aparecena modelagem do intervalo de tempo entre a ocorrˆncia de a o e eventos como, por exemplo, a demanda para conex˜o de chamadas telefˆnicas. a o Vari´vel aleat´ria gaussiana a o A f.d.p. de uma vari´vel aleat´ria gaussiana ´ definida por a o e fX (x) = √ (x−m)2 1 e− 2σ2 , x ∈ R , 2πσ Sendo m e σ n´ meros reais. u Para calcular a F.D.P. da vari´vel aleat´ria gaussiana X, consideremos a fun¸˜o Φ definida a o ca por: x t2 1 Φ(x) = √ e− 2 dt . 2π −∞ Observamos que a fun¸˜o Φ ´ a F.D.P. da vari´vel aleat´ria gaussiana para m = 0 e σ = 1. ca e a o Temos, ent˜o, que a F.D.P. da vari´vel aleat´ria gaussiana ´ dada por a a o e FX (x) = Φ x−m σ . Definindo, ainda, a fun¸˜o erf por ca 1 erf (x) = √ 2π Podemos escrever 0 1 1 t2 Φ(x) = √ e− 2 dt + √ 2π −∞ 2π x t2 e− 2 dt = 0 25 x t2 e− 2 dt 0 1 1 +√ 2 2π x t2 e− 2 dt = 0 1 + erf (x). 2
  27. 27. Logo, Φ x−m σ = 1 + erf 2 x−m σ . +∞ t2 1 e− 2 dt. Ou usamos, Q(x) = 1 − Φ(x) = √ 2π x Resumindo, se X ´ a vari´vel aleat´ria gaussiana de f.d.p. fX definida por e a o fX (x) = √ (x−m)2 1 e− 2σ2 , x ∈ R , 2πσ ent˜o sua F.D.P. FX ´ definida por a e FX (x) = 1 + erf 2 x−m σ . OBS.: (a) Alguns autores definem ainda a fun¸˜o Q por Q(x) = 1 − Φ(x) ca (b) A fun¸˜o erf ´ ´ ca e ımpar; isto ´, erf (−x) = −erf (x). Devemos observar tamb´m que h´ e e a outras defini¸˜es, dadas por outros autores, para a fun¸ao erf . co c˜ Exerc´ ıcio: Esboce o gr´fico da fun¸˜o erf . a ca H´ v´rias outras vari´veis aleat´rias igualmente importantes, dependendo da ´rea de aplica¸˜o, a a a o a ca como, por exemplo, as vari´veis aleat´rias de Rayleigh, RICE, Nakagami, Gamma e outras. E, a o ainda, vari´veis aleat´rias provenientes de vari´veis aleat´rias conhecidas, como a lognormal e a o a o a logRayleigh. Discutiremos algumas dessas vari´veis aleat´rias nos exerc´ a o ıcios e nos cap´ ıtulos seguintes. 26
  28. 28. Chapter 4 Vetores de vari´veis aleat´rias a o 4.1 Defini¸˜o ca Um vetor de vari´veis aleat´rias (ou um vetor aleat´rio) X ´ uma fun¸˜o (vetorial) que a o o e ca associa a cada resultado ξ do espa¸o amostral S um vetor X(ξ). c Exemplos: (a) Considere o experimento de selecionar o nome de um estudante de uma urna. Seja ξ o resultado deste experimento. Definimos: A(ξ) = altura do estudante; P (ξ) = peso do estudante; I(ξ) = idade do estudante . O vetor X = (A(ξ), P (ξ), I(ξ)) ´ um vetor de vari´veis aleat´rias e, portanto, um vetor e a o aleat´rio. o (b) Considere ξ o registro de tens˜o de ru´ em um ponto de um circuito, durante um a ıdo determinado intervalo de tempo. Portanto, ξ = fξ (t). Consideremos a vari´vel aleat´ria Xk = fξ (kT ), sendo k = 1, 2, . . . , N. a o O vetor X = (X1 , X2 , . . . , Xn ) ´, portanto, um vetor aleat´rio. e o 4.2 Eventos associados a vetores aleat´rios o O conjunto {X ≤ x} representa, de forma compacta, o conjunto {X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn } . Esse conjunto ´ um evento para todo x = (x1 , x2 , . . . , xn ) ∈ Rn . e 27
  29. 29. 4.3 Independˆncia e Dizemos que as vari´veis aleat´rias X1 , X2 , . . . , Xn s˜o independentes se a o a P [X1 ∈ A1 , . . . , Xn ∈ An ] = P [X1 ∈ A1 ] . . . P [Xn ∈ An ] onde Ak ´ um evento que envolve Xk somente. e 4.4 4.4.1 Fun¸˜o distribui¸˜o de probabilidade conjunta ca ca Defini¸˜o ca A Fun¸˜o Distribui¸˜o de Probabilidade associada a um vetor aleat´rio X, chamada de ca ca o F.D.P. conjunta, ´ definida por: e FX : Rn −→ R x −→ FX (x) = P [X ≤ x] onde FX (x) = P [X ≤ x] = P [X1 ≤ x1 , X2 ≤ x2 , . . . , Xn ≤ xn ] . Podemos representar FX (x) por FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ). Consideremos o caso particular, bidimensional, com a F.D.P. conjunta das vari´veis aleat´rias a o X e Y , FXY , dada por FXY (x, y) = P [X ≤ x e Y ≤ y] ou podemos escrever FXY (x, y) = P [X ≤ x ∩ Y ≤ y]. Exemplo: Bits s˜o transmitidos atrav´s de um canal de comunica¸˜es com probabilidades de erro a e co dadas de acordo com o esquema a seguir: (i) Se o bit 1 for enviado, a probabilidade de o bit 1 ser recebido ´ p e, consequentemente, e a probabilidade de o bit 0 ser recebido ´ 1 − p. e (ii) Se o bit 0 for enviado, a probabilidade de o bit 0 ser recebido ´ p e, consequentemente, e a probabilidae de o bit 1 ser recebido ´ 1 − p. e Consideremos as vari´veis aleat´rias X, representando os bits enviados, e Y , representando a o 1 os bits recebidos. Tamb´m, tomemos P [X = 0] = P [X = 1] = . e 2 Temos, P [Y = 0|X = 0] = p P [Y = 1|X = 0] = 1 − p P [Y = 0|X = 1] = 1 − p 28
  30. 30. P [Y = 1|X = 1] = p Lembremos que, pela regra de Bayes, P [A ∩ B] = P [A|B]P [B]. Assim, P [Y = 0 e X = 0] = P [Y = 0|X = 0]P [X = 0] = p 2 P [Y = 1 e X = 0] = P [Y = 1|X = 0]P [X = 0] = 1−p 2 1−p 2 p P [Y = 1 e X = 1] = P [Y = 1|X = 1]P [X = 1] = 2 P [X = 1 e Y = 0] = P [Y = 0|X = 1]P [X = 1] = A F.D.P. FXY ser´, ent˜o, definida por: a a Se x > 1 e y > 1 =⇒ FXY (x, y) = 1. Se x < 0 e y ∈ R =⇒ FXY (x, y) = 0. Se y < 0 e y ∈ R =⇒ FXY (x, y) = 0. Se x > 1 e y < 1 =⇒ FXY (x, y) = P [X = 1 ∩ Y = 0] + P [X = 0 ∩ Y = 0] = 1−p p 1 + = . 2 2 2 Se x > 1 e y ≥ 1 =⇒ FXY (x, y) = 1. 1 Se x < 1 e y ≥ 1 =⇒ FXY (x, y) = . 2 p Se x < 1 e y < 1 =⇒ FXY (x, y) = . 2 4.4.2 Propriedades da F.D.P. conjunta Consideremos o caso particular para a F.D.P. conjunta de duas vari´veis aleat´rias, digamos a o X e Y . Temos, (a) FXY ´ n˜o-decrescente; isto ´, se x1 ≥ x2 e y1 ≥ y2 ⇒ FXY (x1 , y1 ) ≥ FXY (x2 , y2 ). e a e (b) FXY (−∞, y1) = FXY (x1 , −∞) = 0 (c) FXY (+∞, +∞) = 1 (d) FX (x) = FXY (x, +∞) = P [X ≤ x, y < +∞] = P [X ≤ x] (e) FY (y) = FXY (+∞, y) = P [Y ≤ y] 29
  31. 31. 4.5 Fun¸˜o densidade de probabilidade conjunta ca 4.5.1 Defini¸˜o ca Seja X um vetor aleat´rio de dimens˜o n com F.D.P. FX diferenci´vel. Definimos a f.d.p. o a a conjunta fX do vetor aleat´rio X por o fX (x) = fX1 ...Xn (x1 , . . . , xn ) = 4.5.2 ∂n FX ...X (x1 , . . . , xn ) . ∂x1 . . . ∂xn 1 n Propriedades da f.d.p. conjunta Consideremos, primeiro, o caso particular em que X ´ um vetor aleat´rio bidimensional, e o digamos de coordenadas X e Y . Temos, ent˜o, os seguintes resultados: a +∞ +∞ (i) fXY (x, y)dxdy = 1 −∞ −∞ (ii) P [(X, Y ) ∈ Ω] = fXY (x, y)dxdy Ω x y −∞ −∞ (iii) FXY (x, y) = (iv) fXY (x, y) = fXY (u, v)dvdu ∂ 2 FXY (x, y) ∂x∂y +∞ (v) fX (x) = fXY (x, v)dv −∞ +∞ (vi) fY (y) = fXY (u, y)du −∞ OBS: fX e fY s˜o chamadas, nesse caso, de fun¸˜es densidade de probabilidade marginais. a co Generalizando, para um vetor com n coordenadas, temos: +∞ (i) +∞ ... −∞ fX1 ...Xn (x1 , . . . , xn )dx1 . . . dxn = 1 −∞ (ii) P [X ∈ Ω] = Ω fX (x)dx x1 (iii) FX1 ...Xn (x1 , . . . , xn ) = xn ... −∞ +∞ (iv) +∞ xi +∞ ... −∞ fX1 ...Xn (u1 , . . . , un )dun . . . du1 −∞ +∞ ... −∞ −∞ −∞ xi fX1 ...Xn (u1 , . . . , un )du1 . . . dun = FXi (xi ) = −∞ fXi (ui )dui −∞ 30
  32. 32. +∞ (v) fXi (xi ) = +∞ ... −∞ fX1 ...Xn (u1 , . . . , ui−1, xi , ui+1, . . . , un )du1 . . . dui−1dui+1 . . . dun −∞ *consideramos n − 1 integrais. Caso de vetor aleat´rio discreto o Consideremos um vetor aleat´rio discreto bidimensional X = (X, Y ). Temos, o (i) P [X ∈ Ω] = fXY (xj , yk ) , (xj , yk ) ∈ Ω +∞ +∞ (ii) fXY (xj , yk ) = 1 j=1 k=1 +∞ (iii) fX (xj ) = fXY (xj , yk ) k=1 +∞ (iv) fY (yk ) = fXY (xj , yk ) j=1 Exemplo: (a) Um trem chega a uma esta¸˜o e p´ra por cinco minutos antes de prosseguir. O instante ca a de chegada do trem, contado a partir das 9 h, em minuto, pode ser modelado pela v.a. T , com f.d.p. fT (t) = 0, 15e−0,15t u(t). (i) Calcule a probabilidade de o trem chegar na esta¸˜o at´ as 9 : 20h. ca e Solu¸˜o: ca 20 20 P [T < 20] = fT (t)dt = −∞ 0 0, 15e−0,15t dt ≃ 0, 95 (ii) Determine o maior atraso que um usu´rio pode ter de modo que a probabilidade de a ele pegar o trem seja maior que 0, 5. Solu¸˜o: ca +∞ P [T > a − 5] = fT (t)dt > 0, 5 =⇒ a < 9, 621 a−5 (iii) Considere que o instante de chegada de um estudante ` esta¸˜o (contado a partir a ca das 9h, em minuto) ´ uma v.a. X e que a f.d.p. conjunta de X e T ´: e e fXT (x, t) = 0, 06e−(0,15t+0,4x) u(t)u(x) Calcule a probabilidade de o estudante pegar o trem. 31
  33. 33. Solu¸˜o: ca P [T > X − 5] = P [X < T + 5] = P [(X, T ) ∈ A] = +∞ 0 fXY (x, y)dxdy = A t+5 0 0, 06e−(0,15t+0,4x) dxdt ≃ 0, 946. (b) O sinal recebido em uma transmiss˜o via r´dio pode ser modelado por a a r(t) = Acos(ω0 t + Θ) , A > 0 ou r(t) = Xcosω0 t + Y senω0 t sendo X e Y vari´veis aleat´rias com f.d.p. conjunta fXY definida por fXY (x, y) = a o 1 − (x2 +y2) e 2σ2 . 2πσ 2 (i) Determine a probabilidade de a amplitude A ser maior que 1. Solu¸˜o: ca √ P [A > 1] = P [ X 2 + Y 2 > 1] = P [X 2+Y 2 > 1] = 2π 0 1 +∞ 1 1 − r22 e 2σ rdrdθ = 2πσ 2 . . . = e− 2σ2 (ii) Encontre a express˜o de fX (x). a Solu¸˜o: ca +∞ fX (x) = −∞ 4.6 4.6.1 +∞ fXY (x, v)dv = −∞ x2 1 − x2 +v2 1 e 2σ2 dy = . . . = √ e− 2σ2 2πσ 2 2πσ Fun¸˜es distribui¸˜o e densidade condicionais co ca Defini¸˜o ca A fun¸˜o distribui¸˜o de probabilidade de uma v.a. X, condicionada ` ocorrˆncia de um ca ca a e evento M ´ definida por e FX|M (x) = P [X ≤ x|M] = P [X ≤ x ∩ M] ; P [M] = 0 P [M] d Se FX|M ´ diferenci´vel =⇒ fX|M (x) = e a FX|M (x). dx O evento M tamb´m poderia ser descrito em termos da v.a. Y . e Assim, M = {Y ≤ y} = {ξ ∈ Ω|Y (ξ) ≤ y}. FXY (x, y) E, FX|Y ≤y (x) = . Pois, FY (y) P [X ≤ x ∩ Y ≤ y] FX|Y ≤y (x) = P [X ≤ x|Y ≤ y] = . P [Y ≤ y] d FXY (x, y) Tamb´m, fX|Y ≤y (x) = dx e . FY (y) 32
  34. 34. Poder´ ıamos tentar definir FX|Y =y (x) = P [X ≤ x ∩ Y = y] . P [Y = y] Por´m, P [Y = y] = 0. e Dessa forma, definimos FX|Y =y por um processo de limite. Com isso, chegamos ao resultado: x fXY (u, y)du −∞ FX|Y =y (x) = fY (y) e fX|Y (x) = fx|Y =y (x) = Analogamente, fY |X (y) = fY |X=x (y) = fXY (x, y) fY (y) fXY (x, y) . fX (x) Resumo: • FX|Y ≤y (x) = FXY (x, y) FY (y) x fXY (u, y) du • FX|Y (x) = FX|Y =y (x) = • fX|Y (x) = fX|Y =y (x) = −∞ fY (y) fXY (x, y) fY (y) y fXY (x, v) dv • FY |X (y) = FY |X=x (y) = • fY |X (x) = fY |X=x (y) = 4.6.2 −∞ fX (x) fXY (x, y) fX (x) Independˆncia entre duas vari´veis aleat´rias e a o Duas vari´veis aleat´rias X e Y s˜o independentes se qualquer evento A1 definido em termos a o a de X ´ independente de qualquer evento A2 definido em termos de Y . e Isto ´, P [X ∈ A1 , Y ∈ A2 ] = P [X ∈ A1 ]P [Y ∈ A2 ]. e Podemos mostrar que as vari´veis aleat´rias X e Y s˜o independentes se, e s´ se, a o a o FXY (x, y) = FX (x)FY (y) para todos x e y. Se FX e FY s˜o diferenci´veis, ent˜o fXY (x, y) = fX (x)fY (y). a a a Observemos que, neste caso, fX|Y (x) = fX (x) e fY |X (x) = fY (y). 33
  35. 35. Prova: Os eventos A e B s˜o independentes se P [AB] = P [A]P [B]. a Temos, FXY (x, y) = FX (x)FY (y) ou P [{X ≤ x} ∩ {Y ≤ y}] = P [{X ≤ x}]P [Y ≤ y]. E, ∂ 2 FXY (x, y) ∂ 2 [FX (x)FY (y)] ∂ ∂ fXY (x, y) = = = FX (x) FY (y) = fX (x)fY (y). ∂x∂y ∂x∂y ∂x ∂y Tamb´m, e FXY (x, y) FX (X|Y ≤ y) = = FX (x). FY (y) Conseq¨ entemente, fX (x|Y ≤ y) = fX (x) e fY (y|X ≤ x) = fY (y). u Generalizando, as vari´veis aleat´rias X1 , . . . , Xn s˜o independentes quando a o a n FX1 ...Xn (x1 , . . . , xn ) = FXi (xi ). i=1 E, no caso das fun¸˜es FXi serem diferenci´veis, temos co a n fX1 ...Xn (x1 , . . . , xn ) = fXi (xi ). i=1 34
  36. 36. Exemplos: (a) Os valores da tens˜o de ru´ em um circuito, medidos em determinado ponto, em dois insa ıdo tantes, podem ser caracterizados por duas vari´veis aleat´rias X e Y com f.d.p. conjunta a o dada por: fXY (x, y) = 1 1 − 2 x2 +y2 σ2 e 2πσ 2 Determine: (a) fY (y) e fX (x) (f.d.p.’s marginais) (b) fY |X (y), concluindo sobre a independˆncia das vari´veis aleat´rias X e Y . e a o (c) Para σ = 1, a probabilidade de Y ser maior que 3. (d) Para os valores do item c), P [Y > 3|X = 1] (ii) Um painel controla as dura¸˜es X e Y de duas liga¸˜es telefˆnicas. Essas dura¸˜es podem co co o co ser modeladas por duas vari´veis aleat´rias com f.d.p. conjunta a o fXY (x, y) = 10e−(2x+5y) u(x)u(y) O painel indica o n´ mero de liga¸˜es (0, 1 ou 2) cuja dura¸˜o ultrapassa o valor T = 0, 5. u co ca Deste modo, a indica¸˜o do painel pode ser modelada como uma vari´vel aleat´ria Z ca a o definida da seguinte forma: • Z = 0, se nenhuma das liga¸˜es tem dura¸˜o maior que T co ca • Z = 1, se apenas uma das liga¸˜es tem dura¸˜o maior que T co ca • Z = 2, se as duas liga¸˜es tˆm dura¸˜o maior que T co e ca (a) Determine fX (x) e fY (y) e conclua sobre a independˆncia das vari´veis aleat´rias. e a o (b) Determine a express˜o de fZ (z) e de FZ (z). Esboce os gr´ficos de fZ e de FZ . a a (c) Dado que apenas uma das chamadas teve dura¸˜o maior que T , determine a probaca bilidade de que a dura¸˜o X da primeira chamada exceda T . ca (d) Dado que ambas as chamadas tiveram dura¸˜o superior a T , determine a probabilca idade de que a dura¸˜o Y da segunda chamada exceda o valor 1. ca Solu¸˜o: ca +∞ fXY (x, v)dv = 2e−2x . (a) fX (x) = −∞ Analogamente, fY (y) = 5e−5y . Assim, fXY (x, y) = fX (x)fY (y). Logo, X e Y s˜o vari´veis aleat´rias independentes. a a o 35
  37. 37. 0,5 (b) P [Z = 0] = P [X < T, Y < T ] = P [Z = 2] = P [X > T, Y > T ] = 0,5 fXY (x, y)dxdy −∞ −∞ +∞ +∞ −2x −5y 2e 0,5 5e ≃ 0, 58. dxdy = 0, 03 0,5 P [Z = 1] = 1 − P [Z = 0] − P [Z = 2] = 0, 39 FZ (z) = 0, 58u(z) + 0, 39u(z − 1) + 0, 03u(z − 2) fZ (z) = 0, 58δ(z) + 0, 39δ(z − 1) + 0, 03δ(z − 2) P [X > 0, 5 e Y < 0, 5] P [X > 0, 5 e Z = 1] (c) P [X > 0, 5|Z = 1] = = = 0, 87 P [Z = 1] P [Z = 1] P [Y > 1 e Z = 2] P [Y > 1 e X > 0, 5] (d) P [Y > 1|Z = 2] = = = 0, 37 P [Z = 2] P [Z = 2] 36
  38. 38. Chapter 5 Fun¸˜es de vari´veis aleat´rias co a o 5.1 Introdu¸˜o ca Seja X uma vari´vel aleat´ria e seja g uma fun¸˜o real de vari´vel real. A fun¸˜o definida a o ca a ca por Y = g(X) ´ tamb´m uma vari´vel aleat´ria. e e a o 5.2 Fun¸˜o densidade de probabilidade de Y = g(X) ca Temos, fY (y) = d d FY (y) = P [Y ≤ y]. dy dy Exemplos: (a) Seja Y uma vari´vel aleat´ria definida por Y = aX + b sendo a , b ∈ R, a = 0 e suponha a o que X tenha F.D.P. FX . Encontre express˜es para FY e para fY . o Solu¸˜o: ca Temos, FY (y) = P [Y ≤ y] = P [aX + b ≤ y] = P [aX ≤ y − b]. Se a > 0 ⇒ FY (y) = P [X ≤ y−b ] = FX a Se a < 0 ⇒ FY (y) = P [X ≥ b−y y−b ]=P X≥ = 1 − FX −a a Assim,    FX  y−b a Y −b , a>0 a FY (y) =   1 − FX Y − b , a < 0  a 37 y−b a
  39. 39. dF du y−b dF = sendo u = . dy du dy a 1 y−b Logo, fY (y) = fX , a>0e a a E, fY = fY (y) = 1 fX −a Assim, fY (y) = y−b a , a < 0. 1 fX |a| y−b . a (b) Considere a vari´vel aleat´ria Y = X 2 sendo X uma vari´vel aleat´ria cont´ a o a o ınua. Ache a f.d.p. e a F.D.P. de Y , em termos da f.d.p. e da F.D.P. de X. Solu¸˜o: ca Temos, √ √ FY (y) = P [Y ≤ y] = P [X 2 ≤ y] = P [− y ≤ X ≤ y] . FY (y) = Assim, fY (y) = dFY dF du = . dy du dy   0 , y<0  √ √ FX ( y) − FX (− y) y ≥ 0 E,   0, y<0 √ √ fX ( y) fX (− y) fY (y) = + , y>0 √ √  2 y 2 y 38
  40. 40. (c) Seja Y = cosX sendo X uma v.a. uniforme no intervalo [0, 2π]. Ache a f.d.p. e a F.D.P. de Y . Solu¸˜o: ca FY (y) = P [Y ≤ y] = P [cosX ≤ y] Se cosX ≤ y ⇒ arccos y ≤ X ≤ 2π − arccosy. Assim, P [cosX ≤ y] = P [X ≤ 2π − arccosy] − P [X ≤ arccosy]. Tamb´m, e fY (y) = fX (2π−arccosy) 1 π e 1 − y2 , −1 < y < 1 1 1− y2 −fX (arccosy) −1 1− y2 = 1 2π 1 1− y2 +   0 , y < −1  1 arcseny FY (y) = + , −1 ≤ y ≤ 1  2 π  1, y>1 1 2π 1 1 − y2 = (d) Considere X uma v.a. uniformemente distribu´ no intervalo [−c, c]. Seja Y uma v.a. ıda −2 definida por Y = X . Determine fY (y). Solu¸˜o: ca FY (y) = P [Y ≤ y] = P 1 ≤y . X2 Se y ≤ 0 ⇒ P 1 ≤ y = 0. X2 Se y > 0 ⇒ P 1 1 1 1 ≤ y = P X2 ≥ = P X ≥ √ + P X ≤ −√ 2 X y y y Mas,     E, c 1 dx = 1 P X≥√ = 1  y  0, √ ≥c  y √ 1/ y 2c 39 1 1 1 − √ , √ <c 2 2c y y
  41. 41.     √ −1/ y  1 1  − 1 + 1 , − 1 > −c  √ √  dx , − √ > −c 1 2c y 2 y 2c y −c P X ≤ −√ = = 1 1   0 , − √ ≤ −c y  0 , − √ ≤ −c    y y Assim, E,  1  1− √ , y ≥ 1  1 1 c y c2 FY (y) = P X ≤ − √ + P X ≥ √ =  y y  0, y< 1 c2 fY (y) =    1 √ 2c( y)3 , y>   0, y< 1 c2 40 1 c2
  42. 42. Chapter 6 Valor esperado, variˆncia e desvio a padr˜o de vari´veis aleat´rias a a o 6.1 Valor esperado (ou m´dia) de um v.a e Seja X uma v.a. discreta. Consideremos que X assume os valores {x1 , x2 , . . . , xk }. Suponha que a experiˆncia associada a esta v.a. tenha sido realizada N vezes e que n(xi ) e represente o n´ mero de vezes em que o evento {X = xi } ocorreu. u De acordo com o conceito de freq¨ˆncia relativa, temos ue n(xi ) , i = 1, . . . , k . N Assim, a m´dia aritm´tica dos N resultados da experiˆncia ´ dada por e e e e P [X = xi ] = k n(xi ) mX = xi = N i=1 k xi P [X = xi ] . i=1 No caso de vari´veis aleat´rias cont´ a o ınuas, temos +∞ mX = xfX (x)dx . −∞ Exemplo: (a) Seja X uma v.a. distribu´ uniformemente no intervalo [a, b]. Calcule mX . ıda Solu¸˜o: ca b mX = x a 1 a+b dx = . b−a 2 41
  43. 43. (b) Seja X uma v.a. com f.d.p. gaussiana fX (x) = √ 2 1 (x−m) 1 e− 2 σ2 2πσ Calcume mX . Solu¸˜o: ca +∞ mX = −∞ 6.2 x√ 2 1 (x−m) 1 e− 2 σ2 dx = . . . = m 2πσ Variˆncia a Consideremos X uma vari´vel aleat´ria discreta. Suponha que X assuma os valores {x1 , x2 , . . . , xk }. a o Considere que a experiˆncia associada a esta v.a. tenha sido realizada N vezes e que n(xi ) e represente o n´ mero de vezes em que o evento {X = xi } ocorreu. u Assim, definimos a variˆncia de X por a P [X=xi ] k 2 σX = i=1 (xi − mX )2 n(xi ) N Observamos que a variˆncia de uma v.a. nada mais ´ do que a m´dia aritm´tica dos a e e e quadrados dos desvios (xi − mX ), em rela¸˜o ` m´dia, dos N resultados da experiˆncia. Isto ca a e e mostra que a variˆncia de uma v.a. mede sua dispers˜o em torno da m´dia. a a e No caso de X ser uma v.a. cont´ ınua, temos +∞ 2 σX = −∞ (x − mX )2 fX (x)dx Exemplos: (a) Calcule a variˆncia de uma v.a. X uniformemente distribu´ no intervalo [a, b]. a ıda Solu¸˜o: ca b 2 σX = a x− b+a 2 2 1 (b − a)2 dx = b−a 12 Obs: Se considerarmos duas vari´veis aleat´rias uniformes, a de menor variˆncia tem sua a o a f.d.p. mais concentrada em torno de sua m´dia. e 42
  44. 44. (b) Calcule a variˆncia de uma v.a. gaussiana a fX (x) = √ (x−m)2 1 e− 2σ2 2πσ Solu¸˜o: ca 2 σX = √ 6.3 6.3.1 1 2πσ +∞ −∞ (x − m)2 e− (x−m)2 2σ 2 dx = σ 2 Momentos Momentos de ordem k Definimos o momento de ordem k de uma v.a. cont´ ınua X por +∞ E[X k ] = xk fX (x)dx . −∞ N e X ´ uma v.a. discreta ent˜o E[X k ] = e a xk P [X = xi ]. i i=1 OBS: Se k = 0 ⇒ E[X o ] = 1 e se k = 1 ⇒ E[X] = mX . 6.3.2 Momento central de ordem k Chama-se momento central de ordem k, de uma v.a. X, o valor esperado +∞ E[(X − mX )k ] = 6.3.3 (x − mX )k fX (x)dx . −∞ Valor esperado de um vetor aleat´rio o +∞ E[X] = mX = +∞ ... −∞ 43 −∞ xfX (x)dx .
  45. 45. Exemplo: Considere o vetor aleat´rio X ∈ R2 com f.d.p. fX definida por o fX (x) = fX1 X2 (x1 , x2 ) = abe−(ax1 +bx2 ) u(x1 )u(x2 ) . Calcule E[X]. Solu¸˜o: ca +∞ mX = 6.4 +∞ (x1 , x2 )abe−(ax1 +bx2 ) dx1 dx2 = 0 0 1 1 , a b . Matriz Covariˆncia a Em analogia ` variˆncia de uma vari´vel aleat´ria real, definimos, para vetores aleat´rios, a a a o o a matriz covariˆncia: a +∞ ∆X = OBS: +∞ ... −∞ −∞ (x − mX )t (x − mX ) fX (x)dx ∆X = E[(X − mX )t (X − mX )] Exemplo: Seja X o vetor aleat´rio bidimensional com f.d.p. o fX (x) = fX1 X2 (x1 , x2 ) = 1 − 1 (5x2 +5x2 −8x1 x2 ) e 18 1 2 6π (i) Calcule mX (ii) Encontre ∆X . Solu¸˜o: ca (i) mX = 0 . (ii) Temos xt x = x2 x1 x2 1 . Assim, ∆X = x2 x1 x2 2 44 5 4 4 5 .
  46. 46. 6.5 6.5.1 Momentos conjuntos Defini¸˜es co k k k (i) Os momentos conjuntos das vari´veis aleat´rias X1 , X2 , . . . , Xn s˜o definidos por E[X1 1 X2 2 . . . Xnn ] a o a e a ordem do momento conjunto ´ dada por k1 + k2 + . . . + kn . e (ii) Os momentos conjuntos de segunda ordem E[Xi Xj ] recebem o nome de correla¸˜o das ca vari´veis aleat´rias Xi e Xj . a o (iii) Os momentos conjuntos centrais das vari´veis aleat´rias X1 , X2 , . . . , Xn s˜o definidos a o a por E[(X1 − mX1 )k1 (X2 − mX2 )k2 . . . (Xn − mXn )kn ]. A soma k1 + k2 + . . . + kn ´ chamada ordem e do momento conjunto central. (iv) Os momentos conjuntos centrais de segunda ordem E[(Xi − mXi )(Xj − mXj )] recebem o nome de covariˆncia quando i = j e variˆncia quando i = j. a a (v) A matriz Covariˆncia de um vetor aleat´rio cont´m todos os momentos conjuntos cena o e trais de segunda ordem das componentes do vetor. Ela cont´m na sua diagonal principal as e variˆncias e os elementos fora da diagonal principal s˜o as covariˆncias. a a a Resumindo, temos, +∞ +∞ (i) Correla¸˜o: E[X1 X2 ] = ca (ii) Momentos conjuntos: x1 x2 fX1 X2 (x1 , x2 )dx1 dx2 −∞ k k De ordem k1 + k2 : E[X1 1 X2 2 ] = De ordem k1 + k2 + . . . + kn : k k k E[X1 1 X2 2 . . . Xnn ] = +∞ +∞ ... −∞ −∞ −∞ +∞ −∞ +∞ −∞ xk1 xk2 fX1 X2 (x1 , x2 )dx1 dx2 1 2 xk1 xk2 . . . xkn fX1 X2 ...Xn (x1 , x2 , . . . , xn )dx1 dx2 . . . dxn 1 2 n (iii) Covariˆncia: E[(Xi − mXi )(Xj − mXj )] a Se m = 0 ⇒ covariˆncia = correla¸˜o. a ca (iv) Variˆncia: E[(X − mX )2 ] a 6.5.2 Coeficiente de correla¸˜o ca Define-se coeficiente de correla¸˜o entre as vari´veis aleat´rias X e Y por ca a o ρXY = E[(X − mX )(Y − mY )] E[(X − mX )2 ]E[(Y − mY )2 ] Podemos mostrar que −1 ≤ ρXY ≤ 1. Vari´veis aleat´rias n˜o correlatas a o a Duas vari´veis aleat´rias X e Y s˜o ditas n˜o correlatas quando ocorre uma das seguintes a o a a condi¸˜es (equivalentes): co 45
  47. 47. (i) ρXY = 0 (ii) E[XY ] = E[X]E[Y ] (iii) E[(X − mX )(Y − mY )] = 0 Obs: Se duas vari´veis aleat´rias s˜o independentes ent˜o elas s˜o n˜o-correlatas, mas a a o a a a a rec´ ıproca n˜o ´ verdadeira. a e Vari´veis aleat´rias ortogonais a o Duas vari´veis aleat´rias X e Y s˜o ortogonais quando E[XY ] = 0. a o a Exemplos: (a) Seja Y = acos(ωt + Θ), sendo a, ω e t constantes e Θ uma vari´vel aleat´ria uniforme em a o [0, 2π]. (i) Calcule E[Y ] (ii) Calcule E[Y 2 ] Solu¸˜o: ca 2π (i) E[Y ] = E[acos(ωt + Θ)] = acos(ωt + θ) 0 dθ =0 2π 2 (ii) E[Y 2 ] = . . . = a 2 (b) Sejam X e Y duas vari´veis aleat´rias definidas por X = cosΘ e Y = senΘ, sendo Θ uma a o vari´vel aleat´ria uniformemente distribu´ em [0, π]. a o ıda Determine E[X], E[Y ], E[XY ], E[X 2 ], E[Y 2 ] e E[X 2 Y 2 ]. 46
  48. 48. Chapter 7 Processos Estoc´sticos a 7.1 Introdu¸˜o ca Considere um experimento aleat´rio especificado pelos resultados ξ de algum espa¸o amostral o c S, pelos eventos definidos em S e pelas probabilidades desses eventos. Suponha que para todo resultado ξ ∈ S, exista uma fun¸˜o X dada por X(t, ξ) para todo ca t pertencente a um intervalo I e ξ ∈ S. Para ξ fixo, X(t, ξ) ´ chamada de fun¸˜o amostra. Por outro lado, para cada t fixo, X(t, ξ) e ca ´ uma vari´vel aleat´ria. e a o Dessa forma, criamos uma fam´ indexada de vari´veis aleat´rias {X(t, ξ) , t ∈ I}. ılia a o Esta fam´ recebe o nome de Processo Estoc´stico (ou processo aleat´rio). Normalılia a o mente, denotamos o processo estoc´stico por X(t), omitindo o argumento ξ. a Um processo estoc´stico ´ dito discreto se o conjunto I dos ´ a e ındices for cont´vel. Quando a tratamos de processos estoc´sticos discretos usamos, normalmente, n para denotar o ´ a ındice e Xn para denotar o processo estoc´stico. a Se o conjunto I dos ´ ındices for cont´ ınuo ent˜o o processo estoc´stico ´ dito cont´ a a e ınuo. Processos estoc´sticos aparecem em sistemas de reconhecimento de fala, sistemas de proa cessamento de imagens, sistemas de filas, ru´ t´rmico nos terminais de um resistor e outros. ıdo e Exemplos: (a) Seq¨ˆncia bin´ria aleat´ria ue a o Seja ξ um n´ mero selecionado, ao acaso, do intervalo S = [0, 1] e seja b1 b2 . . . a expans˜o u a bin´ria de ξ. a +∞ Assim, ξ = i=1 bi 2−i , bi ∈ {0, 1}. Defina o processo estoc´stico Xn = X(n, ξ) por Xn = bn , n = 1, 2, . . ., onde bn ´ o n-´simo a e e n´ mero da expans˜o bin´ria de ξ. u a a 47
  49. 49. (b) Sen´ides com amplitudes aleat´rias o o Seja ξ um n´ mero selecionado ao acaso do intervalo [−1, 1]. Defina o processo aleat´rio u o X(t, ξ) por X(t, ξ) = ξsen(2πt) , t ∈ R As amostras desse processo s˜o sen´ides com amplitude ξ. a o (c) Sen´ides com fase aleat´ria o o Seja ξ um n´ mero selecionado ao acaso do intervalo (−π, π) e seja Y (t, ξ) = cos(2πt + ξ). u As amostras do processo estoc´stico Y s˜o vers˜es de cos2πt deslocadas no tempo. a a o 7.2 Especifica¸˜o de um processo estoc´stico ca a Sejam X1 , X2 , . . . , Xk vari´veis aleat´rias obtidas pela amostragem do processo X(t, ξ) em a o t1 , t2 , . . . , tk . Assim, X1 = X(t1 , ξ), X2 = X(t2 , ξ), . . . , Xk = X(tk , ξ). Um processo estoc´stico ´ especificado pela cole¸˜o de fun¸˜es de distribui¸˜o de probabia e ca co ca lidade conjunta de k-´sima ordem: e FX1 X2 ...Xk (x1 , x2 , . . . , xk ) = P [X1 ≤ x1 , X2 ≤ x2 , . . . , Xk ≤ xk ] para todo k e qualquer escolha dos instantes t1 , t2 , . . . , tk . Se o processo estoc´stico for discreto, uma cole¸˜o de fun¸˜es de massa de probabilidade a ca co pode ser usada: fX1 X2 ...Xk (x1 , x2 , . . . , xk ) = P [X1 = x1 , X2 = x2 , . . . , Xk = xk ] Se o processo for cont´ ınuo ent˜o uma cole¸˜o de fun¸˜es densidade de probabilidade pode a ca co ser usada: fX1 X2 ...Xk (x1 , x2 , . . . , xk ) Exemplos: (a) Considere ξ um n´ mero selecionado do intervalo [0, 1] e escreva u n ξ= i=1 bi 2−i , bi ∈ {0, 1} Defina o processo X(n, ξ) = Xn = bn , sendo bn o n-´simo n´ mero da expans˜o bin´ria. e u a a Determine: (i) P [X(1, ξ) = 0] 48
  50. 50. Solu¸˜o: ca X(1, ξ) = b1 . Logo, P [b1 = 0] = P [0 ≤ ξ < 1/2] = 1/2. (ii) P [X(1, ξ) = 0 e X(2, ξ) = 1] Solu¸˜o: ca P [b1 = 0 e b2 = 1] = P [1/4 ≤ ξ < 1/2] = 1/4. (b) Seja ξ um n´ mero escolhido no intervalo [−1, 1] e seja X(t) o processo estoc´stico u a definido por X(t, ξ) = ξcos(2πt) , t ∈ R Ache a f.d.p. de X0 = X(t0 , ξ). Solu¸˜o: ca Temos que X0 = X(t0 , ξ) = ξcos(2πt0 ). Como ξ ´ uniformemente distribu´ em [−1, 1], temos que X0 ser´ uniformemente dise ıda a tribu´ em [−cos(2πt0 ), cos(2πt0 )] com t0 sendo tal que cos2πt0 = 0. ıda Assim, fX0 (x) =      1 , −cos2πt0 < x < cos2πt0 2cos2πt0 0 , caso contr´rio a Por´m, se t0 for tal que cos2πt0 = 0, ent˜o fX0 (t) = δ(t). e a Ao fixarmos um valor para o parˆmetro t de um processo estoc´stico X(t, ξ), obtemos a a uma vari´vel aleat´ria X com F.D.P. FX(t) (x) = P [X(t) ≤ x]. A f.d.p. correspondente ´ a o e ∂ FX(t) (x). fX(t) (x) = ∂x Para cada t teremos uma vari´vel aleat´ria X(t) distinta. a o Quando, para qualquer t , conhecemos fX(t) (x) ou FX(t) (x), dizemos que o processo estoc´stico X(t, ξ) est´ especificado at´ a primeira ordem. a a e Um processo estoc´stico X(t) fica especificado at´ a segunda ordem se, para qualquer par de a e instantes (t1 , t2 ), a f.d.p. fX(t1 )X(t2 ) (x1 , x2 ) das vari´veis aleat´rias X(t1 ) e X(t2 ) ´ conhecida. a o e Um processo estoc´stico X(t) est´ especificado at´ a ordem m, quando ´ conhecida a f.d.p. a a e e conjunta das m vari´veis aleat´rias X(ti ) para qualquer conjunto de valores {ti , i = 1, . . . , m}. a o Em outras palavras, quando se conhece fX(t1 )X(t2 )...X(tm ) (x1 , x2 , . . . , xm ). Dizemos que um processo estoc´stico est´ especificado completamente se ele est´ especifia a a cado at´ a ordem m para qualquer valor de m. e 49
  51. 51. 7.3 Momentos Os momentos (ou estat´ ısticas) de um processo estoc´stico s˜o os momentos das vari´veis a a a aleat´rias definidas em quaisquer instantes do processo. o 7.3.1 M´dia e +∞ mX (t) = E[X(t)] = xfX(t) (x)dx −∞ 7.3.2 Autocorrela¸˜o ca Uma das caracter´ ısticas mais importantes de um processo estoc´stico ´, sem d´ vida, sua a e u fun¸˜o autocorrela¸˜o, que nos levar´ a conhecer a sua densidade espectral. O conte´ do de ca ca a u freq¨ˆncias de um processo depende da velocidade com que a amplitude muda com o tempo. ue Isso pode ser medido pela correla¸˜o entre as amplitudes em t1 e em t1 + τ . ca Se as amplitudes de um processo X(t) (das amostras de X(t)) s˜o similares nos instantes t1 a e t1 + τ ; dizemos que as respectivas vari´veis aleat´rias tˆm forte correla¸˜o. Por outro lado, se a o e ca as amplitudes em t1 e em t1 + τ forem diferentes, dizemos que as respectivas vari´veis aleat´rias a o tˆm fraca correla¸˜o. e ca A autocorrela¸˜o ´ o momento conjunto das vari´veis aleat´rias X(t1 ) e X(t2 ) definidas ca e a o para todo par (t1 , t2 ); isto ´, e +∞ +∞ RX (t1 , t2 ) = E[X(t1 )X(t2 )] = xyfX(t1 )X(t2 ) dxdy −∞ −∞ sendo fX(t1 )X(t2 ) (x, y) a f.d.p. de segunda ordem de X(t). 7.3.3 Autocovariˆncia a A (fun¸˜o) autocovariˆncia de um processo X(t) ´ o momento conjunto central das vari´veis ca a e a aleat´rias X(t1 ) e X(t2 ) para quaiquer (t1 , t2 ); isto ´, o e CX (t1 , t2 ) = E[(X(t1 ) − mX (t1 ))(X(t2 ) − mX (t2 ))] , ∀(t1 , t2 ) Podemos mostrar que: (i) CX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) 2 (ii) σX (t) = RX (t, t) − m2 (t) X 2 Observe que σX (t) = CX (t, t) e que E[(X − mX )(Y − mY )] = E[XY ] − E[X]E[Y ]. 50
  52. 52. O coeficiente de correla¸˜o de X(t) ´ definido como o coeficiente de correla¸˜o de X(t1 ) e ca e ca X(t2 ): ρX (t1 , t2 ) = CX (t1 , t2 ) CX (t1 , t1 ) CX (t2 , t2 ) com | ρX (t1 , t2 ) |≤ 1. Exemplos: (a) Seja A uma vari´vel aleat´ria e seja X(t) = Acos2πt um processo estoc´stico. a o a (i) Determine a m´dia de X(t), em fun¸˜o da m´dia da vari´vel aleat´ria A. e ca e a o Solu¸˜o: ca mX (t) = E[X(t)] = E[Acos2πt] = cos2πtE[A]. (ii) Determine RX (t1 , t2 ). Solu¸˜o: ca RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[A2 ]cos2πt1 cos2πt2 . (b) Seja X(t) = cos(ωt + Θ) um processo estoc´stico onde Θ ´ uma vari´vel aleat´ria unia e a o formemente distribu´ no intervalo (−π, π). ıda Determine: (i) A m´dia de X(t) e Solu¸˜o: ca +∞ mX = cos(ωt + θ)fΘ (θ)dθ = 0. −∞ (ii) A autocorrela¸˜o de X(t) ca Solu¸˜o: ca RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[cos(ωt1 + Θ)cos(ωt2 + Θ)] 1 1 = E[cos(ω(t1 + t2 ) + 2θ) + cos(ω(t1 − t2 )] = cos(ω(t1 − t2 )). 2 2 51
  53. 53. 7.4 Processos estoc´sticos (estritamente) estacion´rios a a Seja X(t) um processo estoc´stico. Se, para qualquer inteiro n, a f.d.p. conjunta de ordem a n n˜o varia com um deslocamento no tempo; isto ´, a e fX(t1 )X(t2 )...X(tn ) (x1 , x2 , . . . , xn ) = fX(t1 +τ )X(t2 +τ )...X(tn +τ ) (x1 , x2 , . . . , xn ) , ∀τ ent˜o o processo estoc´stico ´ dito estritamente estacion´rio at´ a ordem n. a a e a e Obs: (i) A mesma defini¸˜o vale se considerarmos a F.D.P. conjunta ca (ii) mX (t) = E[X(t)] = m 2 (iii) σX(t) = E[(X(t) − m)2 ] = σ 2 (iv) Um processo estoc´stico ´ estacion´rio at´ a primeira ordem se, e s´ se, a e a e o fX(t) (x) = fX(t+τ ) (x) , ∀t, τ (v) Um processo estoc´stico ´ estacion´rio at´ a segunda ordem se, e s´ se, a e a e o fX(t1 )X(t2 ) (x1 , x2 ) = fX(t1 +τ )X(t2 +τ ) (x1 , x2 ) , ∀τ (vi) Se X(t) ´ estacion´rio at´ a n-´sima ordem ent˜o tamb´m ser´ at´ a ordem k, k < n. e a e e a e a e (vii) A verifica¸˜o de estacionariedade estrita ´ uma tarefa dif´ motivando a verifica¸˜o de ca e ıcil, ca formas mais fracas de estacionariedade. 7.5 7.5.1 Processos estoc´sticos estacion´rios no sentido ama a plo ou fracamente estacion´rios a Defini¸˜o ca Um processo estoc´stico X(t) ´ dito estacion´rio no sentido amplo se sua m´dia for a e a e constante; isto ´, mX (t) = m, ∀t e se a sua autocorrela¸˜o ´ fun¸˜o, apenas, da diferen¸a e ca e ca c entre dois instantes; isto ´, e RX (t1 , t2 ) = RX (τ ) , τ = t1 − t2 , ∀t1 , t2 OBS: Se um processo estoc´stico ´ estritamente estacion´rio at´ a segunda ordem ent˜o ele a e a e a ´ estacion´rio no sentido amplo. Por´m, a rec´ e a e ıproca n˜o ´ verdadeira. a e Exemplo: 52
  54. 54. Considere o processo estoc´stico X(t) = Asen(ωt + Θ) sendo Θ uma vari´vel aleat´ria a a o uniformemente distribu´ em [0, 2π]. Verifique se este processo ´ estacion´rio no sentido amplo. ıda e a Solu¸˜o: ca 2π mX (t) = Asen(ωt + θ) 0 1 dθ = 0 2π e RX (t1 , t2 ) = . . . = 7.5.2 A2 cos[ω(t1 − t2 )] 2 Propriedades (i) RX (τ ) = RX (−τ ) (ii) RX (0) = E[X 2 (t)] (iii) Se X(t) = X(t + nT ) , n ∈ Z ent˜o RX (τ ) = RX (τ + nT ) a (iv) | RX (τ ) |≤ RX (0) , ∀τ 7.6 7.6.1 Estat´ ısticas conjuntas de processos estoc´sticos a Especifica¸˜o conjunta ca Dois processos estoc´sticos, digamos X(t) e Y (t), est˜o conjuntamente especificados at´ a a a e ordem m+n, quando ´ conhecida a f.d.p. conjunta das m+n vari´veis aleat´rias {X(ti ), Y (tj )} e a o para quaisquer conjuntos de valores. Isto ´, e fX(t1 )X(t2 )...X(tm )Y (t′1 )Y (t′2 )...Y (t′n ) (x1 , x2 , . . . , xm , y1 , y2, . . . , yn ) para todos t1 , t2 , . . . , tm , t′1 , t′2 , . . . , t′n . 7.6.2 Momentos conjuntos Correla¸˜o cruzada ca A fun¸˜o correla¸˜o cruzada de dois processos estoc´sticos X(t) e Y (t), representada por ca ca a RXY (t1 , t2 ), ´ o momento conjunto das vari´veis aleat´rias X(t1 ) e Y (t2 ) definidas para quaise a o quer pares (t1 , t2 ); isto ´, e +∞ +∞ RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = Covariˆncia cruzada a −∞ −∞ 53 xyfX(t1 )Y (t2 ) (x, y)dxdy , ∀t1 , t2
  55. 55. A fun¸˜o covariˆncia cruzada de dois processos estoc´sticos X(t) e Y (t), representada por ca a a CXY (t1 , t2 ), ´ o momento conjunto central das vari´veis aleat´rias X(t1 ) e Y (t2 ) definidas para e a o qualquer par (t1 , t2 ); isto ´, e CXY (t1 , t2 ) = E{[X(t1 ) − mX (t1 )][Y (t2 ) − mY (t2 )] Podemos mostrar que CXY (t1 , t2 ) = RXY (t1 , t2 ) − mX (t1 )mY (t2 ). 7.6.3 Processos estoc´sticos conjuntamente estacion´rios a a Dois processos estoc´sticos X(t) e Y (t) s˜o ditos conjuntamente estacion´rios at´ a ordem a a a e k + ℓ se a f.d.p. conjunta das k + ℓ vari´veis aleat´rias {X(ti ), Y (t′j ) , i = 1, 2, . . . , k; j = a o 1, 2, . . . , ℓ} n˜o varia com um deslocamento no tempo; isto ´, a e fX(t1 )...X(tk )Y (t′1 )...Y (t′ℓ ) = fX(t1 +τ )...X(tk +τ )Y (t′1 +τ )...Y (t′ℓ +τ ) Dois processos estoc´sticos X(t) e Y (t) s˜o ditos conjuntamente estacion´rios no sentido a a a amplo quando cada um deles ´ estacion´rio no sentido amplo e RXY (t1 , t2 ) s´ depende da e a o diferen¸a (t1 − t2 ); isto ´, c e RXY (t1 , t2 ) = RXY (t1 − t2 ) = RXY (τ ) , τ = t1 − t2 7.6.4 Propriedades da fun¸˜o correla¸˜o cruzada de dois processos ca ca estoc´sticos conjuntamente estacion´rios a a (i) RXY (τ ) = RY X (−τ ) 2 (ii) RXY (τ ) ≤ RX (0)RY (0) (iii) 2 | RXY (τ ) |≤ RX (0) + RY (0) 7.6.5 Independˆncia, n˜o-correla¸˜o e ortogonalidade e a ca Dois processos estoc´sticos X(t) e Y (t) s˜o estatisticamente independentes quando para a a quaisquer m e n a f.d.p. conjunta de ordem m + n pode ser escrita como o produto da f.d.p. de ordem m do processo X(t) pela f.d.p. de ordem n do processo Y (t); isto ´, e fX(t1 )...X(tm )Y (t′1 )...Y (t′n ) (x1 , . . . , xm , y1 , . . . , yn ) = fX(t1 )...X(tm ) (x1 , . . . , xm )fY (t′1 )...Y (t′n ) (y1 , . . . , yn ) Dois processos estoc´sticos X(t) e Y (t), conjuntamente estacion´rios no sentido amplo s˜o a a a ditos n˜o-correlatos quando CXY (τ ) = 0. a CXY (τ ) = 0 ⇒ RXY (τ ) = mX mY . Dois processos estoc´sticos X(t) e Y (t), conjuntamente estacion´rios no sentido amplo s˜o a a a ortogonais quando RXY (τ ) = 0. 54
  56. 56. Exemplos: (a) Sejam X(t) e Y (t) processos estoc´sticos dados por X(t) = cos(ωt + Θ) e Y (t) = a sen(ωt+Θ), sendo Θ uma v.a. uniformemente distribu´ no intervalo [−π, π]. Ache CXY (t1 , t2 ). ıda Solu¸˜o: ca CXY (t1 , t2 ) = RXY (t1 , t2 ) − mX (t1 )mY (t2 ) Mas, mX (t1 ) = mY (t2 ) = 0. 1 E, RXY (t1 , t2 ) = − sen(ω(t1 − t2 )). 2 Logo, 1 CXY (t1 , t2 ) = − sen(ω(t1 − t2 )). 2 (b) Seja Y (t) = X(t) + N(t), onde X(t) ´ um sinal desejado e N(t) um ru´ e ıdo. Ache RXY (t1 , t2 ) supondo que X(t) e N(t) s˜o processos estoc´sticos independentes. a a Solu¸˜o: ca RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = E[X(t1 )X(t2 )]+E[X(t1 )N(t2 )] = RX (t1 , t2 )+mX (t1 )mN (t2 ). 7.6.6 Processos Erg´dicos o Vimos que a caracteriza¸˜o completa de um processo estoc´stico exige o conhecimento ca a de todas as suas fun¸˜es amostra. Esta caracteriza¸˜o permitiu a determina¸˜o de diversas co ca ca estat´ ısticas de processos como, por exemplo, sua m´dia e sua fun¸˜o autocorrela¸˜o. Para e ca ca alguns processos estoc´sticos, entretanto, estas estat´ a ısticas podem ser determinadas a partir de apenas uma fun¸˜o amostra do processo. Esses processos estoc´sticos s˜o determinados ca a a erg´dicos. o Para processos erg´dicos, os valores m´dios e os momentos podem ser determinados atrav´s o e e de m´dias temporais. e 1 T Assim, E[X n (t)] = lim [X(t)]n dt T →+∞ 2T −T onde X(t) ´ uma fun¸˜o amostra t´ e ca ıpica do processo. A autocorrela¸˜o ser´ dada por ca a 1 T →+∞ 2T T RX (τ ) = E[X(t)X(t + τ )] = lim 7.7 X(t)X(t + τ ) dt −T Processos estoc´sticos gaussianos a Um processo X(t) ´ um processo estoc´stico gaussiano se as amostras X1 = X(t1 ), X2 = e a X(t2 ), . . . , Xk = X(tk ) s˜o vari´veis aleat´rias conjuntamente gaussianas para todo k e todas a a o as escolhas de t1 , . . . , tk . Assim, a f.d.p. tem a forma 55
  57. 57. 1 T −1 e− 2 (x−m) K (x−m) fX1 X2 ...Xk (x1 , x2 , . . . , xk ) = (2π)k/2 | K |1/2 onde   mX (t1 )  m (t )  m= X 2   ...  mX (tk ) e  CX (t1 , t1 )  CX (t2 , t1 ) K=  ... CX (tk , t1 ) CX (t1 , t2 ) CX (t2 , t2 ) ... CX (tk , t2 ) ... ... ... ...  CX (t1 , tk ) CX (t2 , tk )    ... CX (tk , tk ) Observamos que processos estoc´sticos gaussianos tˆm a propriedade que suas f.d.p.’s cona e junas s˜o completamente especificadas pela m´dia do processo mX (t) e pela fun¸˜o covariˆncia a e ca a CX (t1 , t2 ). Se um processo gaussiano ´ estacion´rio no sentido amplo ent˜o sua m´dia ´ constante e e a a e e sua autocovariˆncia s´ depende da diferen¸a entre dois instante. Al´m disso, ele ser´ tamb´m a o c e a e estritamente estacion´rio. a Exemplo: Seja X(t) um processo gaussiano com fun¸˜o m´dia e fun¸˜o autocorrela¸˜o dadas por ca e ca ca −|t1 −t2 | mX (t) = 1 e RX (τ = t1 − t2 ) = 2 + 1. Determine P [1 < X(4) < 3]. Sol.: 2 2 X(4) = X4 ´ uma vari´vel aleat´ria gaussiana com E[X4 ] = 1 e σX4 = E[X4 ] − [E(X4 )]2 = e a o 2 RX (0) − mX (4) = 2 − 1 = 1. 3 (X4 −1)2 1 √ e− 2 dX4 ≃ 0.477. Assim, P [1 < X2 < 3] = 2π 1 56
  58. 58. Chapter 8 Revis˜o de an´lise de Fourier a a 8.1 Introdu¸˜o ca Este cap´ ıtulo ´ devotado a uma revis˜o da an´lise de Fourier e a estudar como um sinal no e a a dom´ ınio do tempo pode ser representado no dom´ ınio da freq¨ˆncia. ue 8.2 S´rie de Fourier e Consideremos f : I → I uma fun¸˜o que satisfaz as seguintes condi¸˜es: R R ca co (i) f ´ peri´dica de per´ e o ıodo T; (ii) f ´ de classe C 2 por partes em (t0 , t0 + T ). e Em todo ponto de continuidade de f , podemos escrever: f (t) = onde ∞ ao [an cos + 2 n=1    a = 2  o   T        2 an =  T          b = 2  n  T 2nπt T + bn sen 2nπt ] T (8.1) to +T f (t)dt , to to +T f (t)cos 2nπt T dt e f (t)sen 2nπt T dt. to to +T to (8.2) Num ponto de descontinuidade o lado esquerdo de 8.1 ´ substitu´ por : e ıdo 1 lim [f (t + ε) + f (t − ε)]. ε→o+ 2 57 (8.3)
  59. 59. A s´rie 8.1 com coeficientes dados por 8.2 ´ chamada de s´rie de Fourier de f na forma e e e trigonom´trica. e As condi¸˜es (i) e (ii) s˜o muitas vezes chamadas condi¸˜es de Dirichlet e s˜o suficientes co a co a (mas n˜o necess´rias) para a convergˆncia da s´rie de Fourier. a a e e Em nota¸˜o exponencial (ou complexa) a s´rie de Fourier de f pode ser escrita como ca e +∞ Fn ej f (t) = 2nπt T (8.4) n=−∞ onde Fazendo ωo = 1 Fn = T to +T f (t)e−j 2nπt T dt. (8.5) f (t)e−jnωo t dt. (8.6) to 2π , temos T Fn = 1 T to +T to Observamos que, conhecido f , os coeficientes de 8.4 podem ser calculados e, reciprocamente, conhecidos os coeficientes {Fn }n∈Z , f pode ser sintetizada por 8.4. Dessa forma, f e {Fn }n∈Z Z Z fornecem a mesma informa¸˜o. Muda s´ o ponto de vista : um temporal, outro freq¨ encial. ca o u Exemplo Consideremos a fun¸˜o f : I → I peri´dica de per´ ca R R, o ıodo 2, dada por f (t) = t , 0 ≤ t < 2. O gr´fico dessa fun¸˜o ´ mostrado na figura 8.1. a ca e Figure 8.1: Exemplo de uma fun¸˜o peri´dica. ca o 58 (8.7)
  60. 60. S´rie de Fourier de f na forma trigonom´trica e e C´lculo dos coeficientes a 2 T 2 an = T 2 bn = T 2 ao = 2 f (t)dt = 0 tdt = 2. 0 2 2 2nπt f (t)cos( )dt = T 0 2 2nπt f (t)sen( )dt = T 0 2nπt tcos( )dt = T 0 2 2nπt tsen( )dt = T 0 2 tcos(nπt)dt = 0. 0 2 tsen(nπt)dt = 0 −2 . nπ Assim, +∞ f (t) = 1 + n=1 −2 sen(nπt). nπ S´rie de Fourier de f na forma exponencial e C´lculo dos coeficientes a Fn = e 1 T 2 f (t)e−j 2nπt T dt = 0 1 Fo = T 2 0 1 2 2 te−jnπt dt = 0 1 f (t)dt = 2 1 j nπ ,n = 0 2 tdt = 1. 0 Assim, Fn = 1, n=0 1 j , n = 0. nπ Temos, +∞ f (t) = 1 + 1 jnπt je , n = 0. nπ n=−∞ O espectro complexo de Fourier A expans˜o em s´rie de Fourier de uma fun¸˜o peri´dica ´ a decomposi¸˜o da fun¸˜o em a e ca o e ca ca termos das suas componentes de v´rias freq¨ˆncias. Uma fun¸˜o peri´dica de per´ a ue ca o ıodo T tem 1 componentes de freq¨ˆncias dadas por nν, onde ν = T e n ∈ Z Em termos das freq¨ˆncias ue Z. ue 2π angulares (ou pulsa¸˜es), as componentes s˜o dadas por nωo onde ωo = T = 2πν e n ∈ Z co a Z. Chamamos de espectro da fun¸˜o f o conjunto de todos os coeficientes de Fourier Fn , n ∈ ca Z Se especificarmos f podemos encontrar seu espectro. Reciprocamente, se o espectro for Z. conhecido podemos encontrar a fun¸˜o f correspondente. ca 59
  61. 61. Portanto, podemos especificar f de duas formas: a representa¸˜o no dom´ ca ınio do tempo, onde f ´ expressa como fun¸˜o do tempo e a representa¸˜o no dom´ e ca ca ınio da freq¨ˆncia, onde o ue espectro ´ especificado. e Observamos que o espectro de uma fun¸˜o peri´dica n˜o ´ uma curva cont´ ca o a e ınua, mas existe 2π apenas para valores discretos de ω, m´ ltiplos de uma freq¨ˆncia b´sica ωo = T ( ω = nωo , n ∈ u ue a Z Os coeficientes Fn s˜o complexos e, s˜o descritos por uma magnitude e uma fase. Z). a a Consideremos a fun¸˜o dada por 8.7. Temos que ca Fn = 1, n=0 1 j , n = 0. nπ Assim,   1 ,n = 0 1 | Fn |= ,n = 0  | nπ | Fazendo ω = nω0 = n  n=0  0,  π  , n positivo ∠Fn = 2  −π   , n negativo. 2 e 2π = nπ, temos : T   1 ,ω = 0 1 | Fn |= ,ω = 0  |ω|   0 ,ω = 0  π  , ω positivo ∠Fn = 2  −π   , ω negativo. 2 e Constru´ ımos os gr´ficos de | Fn | e ∠Fn , em termos da freq¨ˆncia ω, apresentando-os na a ue figura 8.2. Figure 8.2: Amplitude e fase dos coeficientes da s´rie de Fourier. e 60
  62. 62. Consideremos, agora, a fun¸˜o f : I → I peri´dica de per´ ca R R, o ıodo T , dada por : f (t) = 1, − τ ≤ t ≤ τ 2 2 0, τ < t < T − τ . 2 2 (8.8) Essa fun¸˜o ´ conhecida como porta (gate) peri´dica. Mostramos o seu gr´fico na figura 8.3. ca e o a Figure 8.3: Fun¸˜o porta peri´dica. ca o Os coeficientes Fn da s´rie de Fourier na forma exponencial s˜o dados por: e a 2nπt 1 T −τ /2 1 f (t)e−j T dt = T −τ /2 T τ sen(nωo τ /2) [ ] , n = 0, = T nωo τ /2 τ /2 e−jnωo t dt Fn = e 1 Fo = T Dessa forma, T−τ 2 −τ 2 1 f (t)dt = T τ 2 −τ 2 −τ /2 dt = (8.9) τ . T  τ  , n=0  T Fn =  τ sen(nω0 τ /2) , n = 0.  T nω0 τ /2 (8.10) (8.11) Definindo a fun¸˜o Sa, conhecida como fun¸˜o de amostragem, por ca ca Sa : I → I R R 1, t=0 sent t→ , t=0 t e fazendo ω = 2π , temos, T Fn = τ nπτ Sa ( ). T T 61 (8.12) (8.13)
  63. 63. A freq¨ˆncia fundamental ´ ωo = ue e 2π . Se ω = nωo , ent˜o a T Fn = τ ωτ Sa( ). T 2 (8.14) Mostramos o gr´fico de Fn em termos da freq¨ˆncia ω na figura 8.4. a ue Figure 8.4: Representa¸˜o do espectro da fun¸˜o porta peri´dica. ca ca o Podemos observar que ` medida que T aumenta, a freq¨ˆncia fundamental 2π se torna a ue T menor e o espectro torna-se, ent˜o, mais denso. Intuitivamente, somos levados a pensar que a quando T tende ao infinito temos, no dom´ do tempo, um unico pulso retangular de largura ınio ´ τ e no dom´ ınio da freq¨ˆncia um espectro cont´ ue ınuo com componentes em todas as freq¨ˆncias. ue Isso pode ser provador rigorosamente. 62
  64. 64. 8.3 Transformada de Fourier Quando o sinal com o qual estamos trabalhando for n˜o-peri´dico ele pode ser expresso a o como uma soma cont´ ınua (integral) de sinais exponenciais, em contraste com sinais peri´dicos, o que podem ser representados por uma soma discreta de sinais exponenciais (s´rie de Fourier e como j´ visto). Vejamos uma motiva¸˜o para essa afirma¸ao. a ca c˜ Consideremos uma fun¸˜o f como mostra a figura 8.5 . ca Figure 8.5: Gr´fico da fun¸˜o f . a ca Constru´ ımos uma nova fun¸˜o, peri´dica, fT com per´ ca o ıodo T, de acordo com a figura 8.6. Figure 8.6: Constru¸˜o de uma fun¸˜o peri´dica a partir da fun¸˜o f dada. ca ca o ca Tornamos o per´ ıodo T grande o suficiente para que n˜o haja superposi¸˜o entre os pulsos a ca da forma de f . Essa nova fun¸˜o fT ´ uma fun¸˜o peri´dica e pode ser representada por uma ca e ca o s´rie exponencial de Fourier. e Numa topologia adequada, quando T → ∞, fT → f . Desse modo, a s´rie de Fourier que e representa fT tamb´m representar´ f . e a A s´rie de Fourier de fT ´ dada por e e +∞ Fn ejnωo t fT (t) = n=−∞ 63 (8.15)
  65. 65. onde ωo = 2π T e Fn = T /2 1 T fT (t)e−jnωo t dt. (8.16) −T /2 Fa¸amos nωo = ωn . Assim, Fn = Fn (ωn ). c Consideremos T Fn (ωn ) = F (ωn ), que ´ obviamente limitado (por constru¸˜o). Temos, e ca 1 fT (t) = T Substituindo T = +∞ F (ωn )ejωn t . (8.17) F (ωn )ejωn t ωo . (8.18) n=−∞ 2π em 8.17 temos ωo +∞ 1 fT (t) = 2π n=−∞ Quando T → ∞ , fT → f e obtemos : f (t) = +∞ 1 2π F (ω)ejωt dω (8.19) −∞ e +∞ f (t)e−jωt dt. F (ω) = (8.20) −∞ O espectro de f ser´ cont´ a ınuo e representado pela fun¸˜o F . ca A equa¸˜o 8.20 ´ conhecida como transformada (direta) de Fourier de f e a equa¸˜o 8.19 ca e ca como transformada inversa de Fourier de F . Simbolicamente podemos escrever F (ω) = F [f (t)] (8.21) f (t) = F −1 [F (ω)]. (8.22) e Fazendo ω = 2πν em 8.19 e 8.20 chegamos a uma formula¸˜o sim´trica, o fator 2π n˜o aparece. ca e a +∞ ˆ F(ν)ej2πνt dν (8.23) f (t)e−j2πνt dt. f (t) = (8.24) −∞ e +∞ ˆ F(ν) = −∞ Existˆncia da transformada de Fourier e O espa¸o L1 (R) c O espa¸o L1 (R) ´ o espa¸o de todas as fun¸˜es f : I → C tais que c e c co R R f dt < ∞. 64 (8.25)
  66. 66. O espa¸o L2 (R) c O espa¸o L2 (R) ´ o espa¸o de todas as fun¸˜es f : I → C, tais que c e c co R R f 2dt < ∞. (8.26) Teorema: Se a fun¸˜o f pertence ao espa¸o L1 (R) ent˜o a transformada de f existe. ca c a Teorema: Se a fun¸˜o f pertence ao espa¸o L2 (R) ent˜o a transformada F, de f , existe e F ∈ L2 (R). ca c a Exemplos 1. Consideremos a fun¸˜o Gτ (conhecida como fun¸˜o porta) definida por ca ca 1, | t |≤ τ 2 0, | t |> τ . 2 Gτ (t) = (8.27) Figure 8.7: fun¸˜o porta. ca Calculando a transformada de Fourier dessa fun¸˜o, temos : ca τ /2 F (ω) = F {Gτ (t)} = −jωt e dt = τ Sen( ωτ ) 2 −τ /2 Para ω = 0 temos : ωτ 2 , ω = 0. (8.28) τ /2 F {Gτ (t)} |ω=0 = dt = τ. −τ /2 Logo, F {Gτ (t)} = τ Sa( ωτ ). 2 A figura 8.8 mostra a representa¸˜o do espectro da fun¸˜o porta. Neste caso F ´ uma ca ca e fun¸˜o real. ca 65
  67. 67. Figure 8.8: Representa¸˜o do espectro da fun¸˜o porta. ca ca 2. Consideremos a fun¸˜o f : I → I definida por ca R R f (t) = e−|t| . Calculando sua transformada de Fourier, obtemos : +∞ F {e−|t| } = e−|t| e−jωt dt = −∞ 2 . 1 + ω2 3. Consideremos a fun¸˜o f : I → I definida por ca R R e−t , t > 0 0, t ≤ 0. f (t) = A sua transformada de Fourier ´ dada por: e +∞ F {f (t)} = e−t e−jωt dt = 0 1 . 1 + jω 4. Consideremos a fun¸˜o Gτ : I → I definida por ca R R 1, | ω |≤ τ /2 0, | ω |> τ /2. Gτ (ω) = Desejamos calcular sua tranformada de Fourier inversa. Assim, F −1 {Gτ (ω)} = 1 2π τ /2 ejωt dω = −τ /2 Para t = 0 temos : F −1 1 {Gτ (ω)} |t=0 = 2π 66 τ Sen( tτ ) 2 , t = 0. tτ 2π 2 τ /2 dω = −τ /2 1 τ. 2π
  68. 68. Assim, τ τt Sa( ). 2π 2 tτ 2π Logo, a transformada de f (t) = Sa( 2 ) ´ igual a τ Gτ (ω). Em particular, e F −1 {Gτ (ω)} = F {Sa(t)} = πG2 (ω). Propriedades da transformada de Fourier As propriedades da transformada de Fourier est˜o apresentadas na seguinte tabela 8.1. a FUNCAO ¸˜ f (t) F (t) a1 f1 (t) + f2 (t) Simetria Linearidade Mudan¸a de escala c f (at) f (t)ejw0 t Transla¸˜o em freq¨ˆncia ca ue f (t) cos(w0 t) f (t) sen(w0 t) Transla¸˜o no tempo ca Dualidade Conjuga¸˜o ca Diferencia¸˜o no tempo ca f (t − t0 ) F (t) f ∗ (t) dn f dtn t Integra¸˜o no tempo ca f (τ )dτ −∞ Diferencia¸˜o na freq¨ˆncia ca ue Simetria (−jt)n f (t) f (t) real f (t) real f (t) real f (t) real f (t) real f (t) real, par em t f (t) real, impar em t TRANSFORMADA F (w) 2πf (−w) a1 F1 (w) + a2 F2 (w) w 1 F |a| a F (w − w0 ) 1 [F (w + w0 ) + F (w − w0 )] 2 j [F (w + w0 ) − F (w − w0 )] 2 e−jwt0 F (w) f (w) F ∗ (−w) (jw)n F (w) 1 F (w) jw dn f dw n F (w) = F ∗ (−w) R{F (w)} =R{F ∗ (−w)} I{F (w)} = −I{F ∗ (−w)} |F (w)| = |F (−w)| ∠F (w) = −∠F (−w) F (w) real, par em w F (w) imagin´ria, impar em w a Table 8.1: Propriedades da transformada de Fourier 67
  69. 69. 8.4 Convolu¸˜o ca Dadas duas fun¸˜es f1 e f2 formamos a integral co +∞ f (t) = −∞ f1 (τ )f2 (t − τ )dτ. (8.29) Essa integral define a convolu¸˜o das fun¸˜es f1 e f2 . Simbolicamente escrevemos ca co f = f1 ∗ f2 . Veremos que convolu¸˜o est´ intimamente associado a produto. ca a Propriedades Comutatividade f1 ∗ f2 = f2 ∗ f1 . (8.30) f1 ∗ [f2 + f3 ] = f1 ∗ f2 + f1 ∗ f3 . (8.31) f1 ∗ [f2 ∗ f3 ] = [f1 ∗ f2 ] ∗ f3 . (8.32) Distributividade Associatividade Teorema da convolu¸˜o no tempo ca Se f1 (t) ↔ F1 (ω) e f2 (t) ↔ F2 (ω) ent˜o a f1 ∗ f2 ↔ F1 F2 . (8.33) ˆ ˆ f1 ∗ f2 ↔ F1 F2 . (8.34) ˆ ˆ Se f1 (t) ↔ F1 (ν) e f2 (t) ↔ F2 (ν) ent˜o a Teorema da convolu¸˜o na freq¨ˆncia ca ue Se f1 (t) ↔ F1 (ω) e f2 (t) ↔ F2 (ω) ent˜o a f1 f2 ↔ 1 [F1 ∗ F2 ]. 2π (8.35) ˆ ˆ Se f1 (t) ↔ F1 (ν) e f2 (t) ↔ F2 (ν) ent˜o a ˆ ˆ f1 f2 ↔ F1 ∗ F2 . 68 (8.36)
  70. 70. FUNCAO ¸˜ f (t) A ejω0 t cos(ω0 t) (t) = sen(ω0 t) TRANSFORMADA F (w) 2πAδ 2πδ(ω − ω0 ) π[δ(ω − ω0 ) + δ(ω + ω0 )] jπ[δ(ω + ω0 ) − δ(ω − ω0 )] Table 8.2: Algumas tranformadas que envolvem o impulso unit´rio. a TIPO DE SINAL corrente dom´stica e quartzo de rel´gio o onda de radar vibra¸˜o de um ´tomo de C´sio ca a e ONDAS HERTZIANAS: muito longas (tel´grafo) e longas (r´dio) a m´dias (r´dio) e a curtas (r´dio) a m´tricas (televis˜o) e a centim´tricas (radar) e luz vis´ ıvel BANDA EM Hz 60 105 1010 1014 1, 5 × 104 a 6 × 104 6 × 104 a 3 × 105 3 × 105 a 3 × 106 3 × 106 a 3 × 107 3 × 107 a 3 × 108 3 × 108 a 1011 3, 7 × 1014 a 7, 5 × 1014 Table 8.3: Ordens de grandeza de sinais. Apresentamos na tabela 8.2 algumas transformadas que envolvem o impulso unit´rio (Delta a de Dirac) denotado por δ. Mostramos, na tabela 8.3 as ordens de grandeza de alguns sinais. 69
  71. 71. Chapter 9 An´lise e processamento de sinais a aleat´rios o 9.1 Introdu¸˜o ca Seja X(t) um processo estoc´stico estacion´rio no sentido amplo, com m´dia mX e fun¸˜o a a e ca autocorrela¸˜o RX (τ ). ca A densidade espectral de potˆncia de X(t) ´ definida por e e +∞ RX (τ )e−iωτ dτ SX (ω) = F {RX (τ )} = −∞ +∞ 1 SX (ω)eiωτ dω. 2π −∞ Antes de continuarmos, faremos um breve estudo de conceitos envolvendo sinais determin´ ısticos e iremos justificar as f´rmulas acima. o Tamb´m, RX (τ ) = e 9.2 9.2.1 Alguns conceitos sobre sinais determin´ ısticos Energia e Potˆncia de um sinal e Seja x = x(t) um sinal determin´ ıstico. Se x for real, definimos a energia do sinal x (Ex ) por: +∞ x2 (t)dt Ex = −∞ e a potˆncia por e 1 T →+∞ T T /2 x2 (t)dt . Px = lim Se x for complexo, 70 −T /2
  72. 72. +∞ +∞ x(t)x∗ (t)dt = Ex = −∞ e −∞ 1 Px = lim T →+∞ T Obs. | x(t) |2 dt T /2 −T /2 | x(t) |2 dt . (i) As defini¸˜es acima s´ fazem sentido quando as integrais convergem. co o (ii) Energia e potˆncia, neste caso, s˜o defini¸˜es e n˜o tˆm, necessariamente, unidades de e a co a e energia (JOULE) e de potˆncia (WATT). e (iii) Podemos assumir a potˆncia (ou a energia) dissipada em um carga de 1Ω para as f´rmulas e o apresentadas. √ e (iv) Px ´ o valor m´dio quadr´tico de x e, portanto, Px ´ o valor rms (root mean square). e e a 9.2.2 Algumas f´rmulas relacionadas a sinais determin´ o ısticos +∞ e−iωt x(t)dt = X(ω) (i) F {x(t)} = (ii) x(t) = −∞ +∞ 1 2π eiωt X(ω)dω −∞ +∞ 1 (iii) x (t) = 2π X ∗ (ω)e−iωt dω ∗ −∞ +∞ eiωt x∗ (t)dt = X(−ω). Se x(t) for real, X ∗ (ω) = X(−ω). ∗ (iv) X (ω) = −∞ 9.2.3 Teorema de Parseval +∞ 1 x(t)x (t)dt = 2π +∞ ∗ Ex = −∞ −∞ | X(ω) |2 dω Prova: +∞ +∞ x(t)x∗ (t)dt = Ex = −∞ 1 = 2π 1 = 2π +∞ +∞ x(t) −∞ ∗ −iωt x(t)X (ω)e −∞ −∞ +∞ ∗ X (ω)X(ω)dω = −∞ 1 2π 1 2π +∞ X ∗ (ω)e−iωt dωdt −∞ dωdt +∞ −∞ | X(ω) |2 dω . 71
  73. 73. Obs. +∞ x2 (t)dt = Se x for real, Ex = −∞ 9.2.4 1 2π +∞ −∞ | X(ω) |2 dω. Densidade espectral de energia e de potˆncia e 1 +∞ Observamos que Ex = | X(ω) |2 dω. 2π −∞ Definimos, assim, a densidade espectral de energia do sinal x por: Sx (ω) =| X(ω) |2 e 1 Ex = 2π +∞ Sx (ω) dω . −∞ Definimos, tamb´m, densidade espectral de potˆncia do sinal x por: e e | XT (ω) |2 T Sx (ω) = lim T →+∞ sendo XT (ω) = F {x(t)GT (t)}, sendo G a fun¸˜o porta de largura T ca e 1 Px = 2π 9.3 9.3.1 +∞ Sx (ω) dω . −∞ Correla¸˜o cruzada e autocorrela¸˜o ca ca Introdu¸˜o ca Considere u e v dois vetores e θ o ˆngulo entre eles. Temos, ˜ ˜ a cosθ = u·v ˜ ˜ u ˜ v ˜ ` A medida que u se aproxima de v, o produto escalar u · v se torna maior. ˜ ˜ ˜ ˜ Analogamente, tratamos com fun¸˜es. Sejam f e g duas fun¸˜es, o produto interno entre co co elas ´ definido por: e t2 < f, g >= t1 f (t) · g(t)dt Assim, quanto mais semelhante forem f e g, maior o valor de < f, g >. 72
  74. 74. 9.3.2 Defini¸˜o ca Sejam x = x(t) e y = y(t) sinais determin´ ısticos. Definimos, a correla¸˜o cruzada dos sinais ca x e y por +∞ Rxy (τ ) = x(t)y(t + τ ) dt −∞ e a autocorrela¸˜o do sinal x por ca +∞ Rx (τ ) = x(t)x(t + τ )dt −∞ Observe que Rxy (τ ) = Rxy (−τ ) e Rx (τ ) = Rx (−τ ). Temos, +∞ F {Rx (τ )} = +∞ e−iωτ −∞ +∞ x(t)x(t + τ )dtdτ −∞ +∞ e−iωτ x(t)x(t + τ )dτ dt = −∞ −∞ +∞ = +∞ e−iωτ x(t + τ )dτ dt x(t) −∞ −∞ Fazendo u = t + τ =⇒ du = dτ , temos: +∞ F {Rx (τ )} = +∞ x(t)eiωt dt −∞ e−iωu x(u)du −∞ = X(−ω)X(ω) = X ∗ (ω)X(ω) =| X(ω) |2 OBS. +∞ A convolu¸˜o entre as fun¸˜es f e g ´ definida por (f ∗ g)(t) = ca co e −∞ f (τ )g(t − τ )dτ . Sejam f (t) = x(t) e g(t) = x(−t). Temos, +∞ (f ∗ g)(t) = 9.4 −∞ +∞ x(τ )x(−(t − τ ))dτ = −∞ +∞ x(τ )x(τ − t)dτ = x(τ )x(t + τ )dτ = Rx (t) −∞ Densidade espectral de potˆncia para sinais aleat´rios e o Definimos a densidade espectral de potˆncia de um processo estoc´stico x(t) como a m´dia e a e das densidades espectrais de potˆncia de todas as fun¸˜es amostra. e co 73
  75. 75. Temos, Sx (ω) = lim E T →+∞ | XT (ω) |2 T sendo XT (ω) = F {x(t)GT (t)}, sendo G a fun¸˜o porta de largura T . ca Teorema - Sx (ω) = F{Rx(τ )} 9.5 Seja x(t) um processo estoc´stico estacion´rio no sentido amplo. Vamos provar que Sx (ω) = a a F {Rx (τ )}. Prova: Temos, Sx (ω) = lim E T →+∞ Mas, | XT (ω) |2 T +∞ | XT (ω) | 2 = XT (ω)XT (−ω) = +∞ −iωt1 e xT (t1 )dt1 −∞ T /2 T /2 e−iωt1 x(t1 )dt1 = −T /2 . eiωt2 xT (t2 )dt2 −∞ T /2 T /2 eiωt2 x(t2 )dt2 = −T /2 e−iω(t1 −t2 ) x(t1 )x(t2 )dt1 dt2 . −T /2 −T /2 E, | XT (ω) |2 T lim E T →+∞ 1 T →+∞ T 1 = lim T →+∞ T T /2 T /2 e−iω(t1 −t2 ) E[x(t1 )x(t2 )]dt1 dt2 = lim −T /2 T /2 −T /2 −T /2 T /2 −T /2 e−iω(t1 −t2 ) Rx (t1 − t2 )dt1 dt2 . Fa¸amos τ = t1 − t2 ⇒ dτ = dt1 e, depois, t2 = t. Obtemos, assim, c 1 T /2 (T /2)−t −iωτ Sx (ω) = lim e Rx (τ )dτ dt T →+∞ T −T /2 (−T /2)−t ∗ ∗ ∗mudando a ordem de integra¸˜o ∗ ∗∗ ca 0 T /2 T (T /2)−τ 1 −iωτ = lim e Rx (τ )dtdτ + e−iωτ Rx (τ )dtdτ T →+∞ T −T (−T /2)−τ 0 −T /2 0 T 1 = lim e−iωτ Rx (τ )(T + τ )dτ + e−iωτ Rx (τ )(T − τ )dτ T →+∞ T −T 0 T 1 T −iωτ τ = lim e Rx (τ )(T − | τ |)dτ = lim e−iωτ Rx (τ ) 1− | | dτ T →+∞ T −T T →+∞ −T T +∞ = −∞ Rx (τ )e−iωτ dτ = F {Rx (τ )} . Devemos observar que potˆncia m´dia de X(t) ´ o seu segundo momento e ´ dada por e e e e 74
  76. 76. +∞ E[X 2 (t)] = RX (0) = −∞ Temos, SX (ω) dω . 2π RX (τ ) = CX (τ ) + m2 ⇒ SX (ω) = F {CX (τ )} + m2 · 2πδ(ω) X X Observe que mX ´ a componente “dc” de X(t). e Para processos estoc´sticos conjuntamente estacion´rios no sentido amplo, definimos a dena a sidade espectral cruzada por SXY (ω) = F {RXY (τ )}, onde RXY (τ ) = E[X(t + τ )Y (t)]. 75

×