1 / 29

Probabilidade e Esperança Condicional

Probabilidade e Esperança Condicional. Como definir apropriadamente F X ( x | Y = y ) e E( X | Y = y )? Duas situações: Y discreto Y contínuo. Caso Discreto. Propriedades. P( X  B ) = S y P( X  B | Y = y ) P( Y = y )

hallam
Download Presentation

Probabilidade e Esperança Condicional

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Probabilidade e Esperança Condicional • Como definir apropriadamente FX(x | Y = y) e E(X | Y = y)? • Duas situações: • Y discreto • Y contínuo

  2. Caso Discreto

  3. Propriedades • P(XB) = SyP(XB | Y=y) P(Y=y) • FX(x) = P(X≤x) =SyP(X≤x| Y=y) P(Y=y) • FX,Y(x,y) = P(X≤x, Y≤y) = St P(X≤x| Y=t) P(Y=t) • E(X) = Sy E(X|Y=y) P(Y=y) (ou seja, E(X) = E(E(X | Y))

  4. Exemplo • O número de pessoas que visita uma academia diariamente tem distribuição de Poisson com parâmetro l. Cada visitante tem probabilidade p de ser homem, independentemente dos demais visitantes. Qual é a probabilidade de que k homens visitem a academia?

  5. Exemplo • O número mensal de sinistros em uma dada carteira de seguros tem distribuição de Poisson com parâmetro l. O valor de cada sinistro tem distribuição exponencial de média m. Qual é o valor esperado para o total de sinistros pagos em um dado mês?

  6. Caso Contínuo • FX(x | Y = y) e E(X | Y = y) são definidos de modo que as mesmas propriedades anteriores sejam válidas (devidamente adaptadas para Y contínua).

  7. Propriedades (caso contínuo) • P(XB) = P(XB | Y=y) fY(y)dy • FX(x) = P(X≤x) = P(X≤x| Y=y) fY(y)dy • FX,Y(x,y) = P(X≤x, Y≤y) = y-P(X≤x| Y=t) fY(t)dt • E(X) = E(X|Y=y) fY(y)dy (ou seja, E(X) = E(E(X | Y))

  8. Caso contínuo • Caso geral: • Quando X e Y tem distribuição conjunta contínua:

  9. Exemplo • Um ponto de coordenadas (X, Y) é escolhido ao acaso no triângulo da figura. Qual é a distribuição condicional de Y dado X? 1 1

  10. Exemplo • Em uma cidade, o gerador de luz é ligado em um instante escolhido ao acaso entre 18 horas e meia-noite e desligado em um instante escolhido ao acaso entre o instante em que foi ligado e meia-noite. • Em média, quanto tempo ele fica ligado por noite? • Qual é a probabilidade de que seja desligado depois das 22 horas? • Qual é a probabilidade de que seja ligado antes da novela e desligado depois?

  11. Exemplo • Se X e Y são independentes e têm densidades fX e fY, qual é a densidade de X+Y?

  12. Exemplo • Uma moeda tem probabilidade P de dar cara, onde P tem distribuição uniforme em [0, 1]. Qual é a densidade condicional de P dado que X = 1?

  13. Somas e médias de v.a. i.i.d. • Dada uma sequência de variáveis aleatórias i.i.d. X1, X2, …, Xn , obter a distribuição de:

  14. Somas e médias de v.a. i.i.d. • Em geral, é complicado calcular a distribuição exata de Sne X • Fácil calcular médias e variâncias

  15. Somas e médias de v.a. i.i.d. • Quando n, Var(X)  0 • Isto sugere que X tenda a se concentrar em torno de sua média m. • É possível tornar esta afirmativa precisa?

  16. Desigualdade de Markov • Seja X uma variável aleatória tal que X 0 e EX = m. Então, para todo a>0:

  17. Desigualdade de Chebyshev • Seja X uma variável aleatória tal que EX = m e Var(X) = s2. Então, para todo d> 0:

  18. Lei Fraca dos Grandes Números(Chebyshev, 1867) • Sejam X1, X2, … v.a. i.i.d, com EX1 = m e Var X1 = s2. Então, para todo d > 0,

  19. Lei Forte dos Grandes Números(Kolmogorov, 1925) • Sejam X1, X2, … v.a. i.i.d, com EX1 = m. Então: • Em consequência, para todo d > 0:

  20. Observações • Se E|X| = + , então X não é limitada (logo não converge), com probabilidade 1. • Exemplos • Jogo de São Petersburgo • X~Cauchy (fX(x) = 1/(1+x2))

  21. Teorema Central do Limite • Estimativa para P(|X–m|d) dada pela desigualdade de Chebyshev é extremamente conservativa. • É possível refiná-la? • Idéia: padronizar X, subtraindo a média e a variância, de modo a ter média 0 e variância 1. • Resultado: a distribuição da versão padronizada converge para uma distribuição fixa (a normal).

  22. Teorema Central do Limite • Sejam X1, X2, … v.a. i.i.d, com EX1 = m e Var X1 = s2. A distribuição de converge para a normal padrão:

  23. Noções de Simulação • Teorema Fundamental Seja F uma f.d.a. qualquer e seja U uma v.a. com distribuição uniforme em [0, 1]. A f.d.a da v.a. X = F-1(U) é F.

  24. Exemplos • Como gerar uma v.a. com distribuição exponencial l? • Como gerar uma v.a. com distribuição binomial (3; 0,6)? • Como gerar uma v.a. com distribuição N(60, 102)?

  25. Para gerar v.a. normais • Algoritmo de Box-Muller são normais e independentes

  26. Método de aceitação/rejeição • Seja f uma função de densidade de probabilidade de suporte limitado [a, b] e tal que f(x) ≤ M, para todo x[a, b] . Gerar U ~ U[a, b] e V ~ U[0, 1], independentes, até que f(U) < M.V Retornar U (que é uma v.a. de densidade f)

  27. Método de aceitação/rejeição • Método de aceitação/rejeitação MV U

  28. Método de aceitação/rejeição • Sejam f e g funções de densidade de probabilidade de suporte limitado [a, b] e tal que f(x) ≤ Mg(x), para todo x[a, b] . Gerar U ~ U[a, b] e V ~g, independentes, até que f(U) < M.V Retornar U (que é uma v.a. de densidade f)

  29. Outros métodos • Algoritmo de Metrópolis • Importance Sampling (MacKay, cap. 29)

More Related