1 / 69

Econometria

Econometria. Propriedades assintóticas dos estimadores MQO Inferência para grandes amostras Teste de Wald e LM. Econometria. Multicolinearidade Testes de hipóteses no modelo de regressão linear Propriedades assintóticas dos estimadores MQO. Propriedades assintóticas.

olisa
Download Presentation

Econometria

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Econometria Propriedadesassintóticas dos estimadoresMQO Inferênciaparagrandesamostras Testede Wald e LM

  2. Econometria Multicolinearidade Testes de hipóteses no modelo de regressão linear Propriedadesassintóticas dos estimadores MQO

  3. Propriedades assintóticas O número de resultados estatísticos exatos, tais como o valor esperado ou a distribuição verdadeira, em muitos modelos é baixo. Usualmente, utilizamos resultados aproximados com base no que se sabe do comportamento de determinadas estatísticas de grandes amostras.

  4. Convergência Definições, tipos de convergência quando n cresce: 1. Para uma constante; exemplo, a média amostral, 2. Para uma variável aleatória; exemplo, uma estatística t com n -1 graus de liberdade.

  5. Convergência para uma constante Convergência de umavariávelaleatória O quesignificaumavariávelaleatóriaconvergirparaumaconstante? Convergênciadavariânciapara zero. A variávelaleatória converge paraalgoquenão é aleatório.

  6. Resultados de convergência Convergência de uma sequência de variáveis aleatórias para uma constante A média converge para uma constante e a variância converge para zero. Teorema de convergência para momentos amostrais. Momentos amostrais convergem em probabilidade para seus análogos populacionais. (1/n)Σig(zi) converge para E[g(zi)].

  7. Convergência em probabilidade A probabilidade que a diferença entre xn e c seja maior do que ε para qualquer ε vai para zero. Ou seja, xn fica perto de c.

  8. Convergência em probabilidade Convergência em probabilidade significa que os valores das variáveis que não estão próximos de c ficam cada vez mais improváveis à medida que o n cresce. Exemplo: Suponha uma variável aleatória xn que assume dois valores, zero e n, com probabilidades (1-1/n) e (1/n), respectivamente. Quando n aumenta , o segundo valor é menos provável. Xn converge em probabilidade para zero. Toda a massa da distribuição de probabilidade fica concentrada em pontos próximos de c.

  9. Convergência em Média Quadrática Se xn tem média μn e variância σ2 tal que os limites ordinários de μn e σ2 são c e 0, respectivamente, xn converge em “média quadrática“ para c, e

  10. Convergência em Média Quadrática Convergênciaemprobabilidadenãoimplicaconvergênciaemmédiaquadrática!!! Exemplo dado: calcular o valor esperado: o valor esperado é igual a 1 paraqualquern. As condiçõespara a convergênciaemmédiasãomaisfáceis de verificar do que a forma geral de convergênciaemprobabilidade. Utilizaremosquasesempreconvergênciaemmédia.

  11. Consistência de um estimador Se a variável aleatória, xn é um estimador (por exemplo, a média), e se: plim xn = θ xn é um estimador consistente de θ.

  12. Teorema de Slutsky Se xn é uma variável aleatória tal que plim xn = θ. Onde θ é uma constante. g(.) é uma função contínua. g(.) não é função de n. Conclusão: plim[g(xn)] = g[plim(xn)] e g[plim(xn)] existe. Limite de probabilidade não necessariamente funciona para esperanças.

  13. Corolários Slutsky

  14. Resultados de Slutsky para Matrizes Funções de matrizes são funções contínuas de elementos das matrizes. Se plimAn = A e plimBn = B (elemento a elemento), Plim(An-1) = [plim An]-1 = A-1 e plim(AnBn) = plimAnplim Bn = AB

  15. Distribuições limites Convergência para um tipo de VA e não para uma constante xn é uma sequência de VA com Fn(xn). Se plim xn = θ (constante), Fn(xn) será um ponto. Mas, Fn pode convergir para uma variável aleatória específica. A distribuição desta VA será a distribuição limite de xn.

  16. Teorema de Slutsky para Variáveis Aleatórias Se , e se g(Xn) é uma função continua com derivadas contínuas e que não depende de n, temos que : Exemplo: t-student converge para uma normal padrão. Quadrado de uma t-student converge para uma qui-quadrada.

  17. Uma extensão do Teorema de Slutsky Se (Xn tem uma distribuição limite) e θ é uma constante tal que (gn tem uma distribuição limite que é função de θ), e temos que: Ou seja, substituir o θ por um estimador consistente leva a mesma distribuição limite.

  18. Aplicação do Teorema de Slutsky Comportamento da estatística F para testar restrições em grandes amostras:

  19. Teorema do Limite Central Descreve o comportamento de uma variável aleatória que envolve soma de variáveis “Tendência para a normalidade.” A média de uma amostra aleatória de qualquer população (com variância finita), quando padronizada, tem uma distribuição normal padrão assintótica.

  20. Teorema do Limite Central TeoremaLindeberg-Levy (versão simples do TLC): Se x1, x2, … , xn é umaamostraaleatória de umapopulaçãocujadistribuição de probabilidade tem médiaμ e variância finita igual a σ2 e temosque:

  21. Teorema do Limite Central TeoremaLindeberg-Feller : Suponhaque é umasequência de variáveisaleatóriasindependentes com médiaμi e variâncias positivas finitas σ2i

  22. Lindberg-Levy vs. Lindeberg-Feller Lindeberg-Levy assume amostra aleatória – observações possuem as mesmas média e variância. Lindeberg-Feller – a variância pode ser diferente entre as observações, apenas com hipóteses de como elas variam. Soma de variáveis aleatórias, independente da sua distribuição, tenderão a ser normalmente distribuídas. E, mais, Lindeberg-Feller não requere que as variáveis na soma venham da mesma distribuição de probabilidade. Estimadores em econometria – uso da versão Lindeberg-Feller do TLC.

  23. Distribuição assintótica • Uma distribuição assintótica é uma distribuição usada para a aproximar a verdadeira distribuição de amostra finita de uma variável aleatória. • Construída a partir da distribuição limite da função de uma variável aleatória. • Se • é assintoticamente normalmente distribuído com média μ e variância σ2/n.

  24. Eficiência assintótica • Comparação de variâncias assintóticas • Como comparamos estimadores consistentes? Se convergem para constante, ambas variâncias vão para zero. • Eficiência assintótica: Um estimador é assintoticamente normal, este estimador é eficiente assintoticamente se a matriz de covariância de qq outro estimador consistente e assintoticamente normal exceder (1/n)V por uma matriz definida não negativa.

  25. Eficiência assintótica Exemplo: Amostra aleatória de uma distribuição normal, • A média amostral é assintoticamente normal com [μ,σ2/n] • Mediana é assintoticamente normal com [μ,(π/2)σ2/n] • Média é assintoticamente mais eficiente.

  26. Propriedades assintóticas do EMQ A hipótese de normalidade não é necessária para derivarmos as propriedades assintóticas. Hipóteses: Convergência de XX/n para uma matriz Q positiva definida. Convergência de X’/n para 0. Suficiente para a consistência. Hipóteses: Convergência de (1/n)X’ para um vetor com distribuição normal – normalidade assintótica.

  27. EMQ EMQ pode ser escrito da seguinte forma: (XX)-1Xy = (XX)-1ixiyi =  + (XX)-1ixiεi Um vetor de constantes mais um vetor de variáveis aleatórias. Os resultados para a amostra finita são estabelecidos conforme regras estatísticas para esta soma. Como esta soma de variáveis se comporta em grandes amostras?

  28. Limite de probabilidade

  29. Convergência em média quadrática E[b|X]=β para qualquer X. Var[b|X]0 para um X específico b converge para β b é consistente

  30. Limite de probabilidade A inversa é uma função contínua da matriz original. Este plim deverá ser zero

  31. Limite de probabilidade Devemos encontrar o plim do último termo: Para isto, devemos formular algumas hipóteses.

  32. Hipótese crucial do modelo O quedevemosassumirparaqueplim(1/nX’ε)=0? xi = vetoraleatório com média e variânciasfinitas e com distribuiçõesidênticas. εi = variável aleatória com uma distribuição constante com média e variância finitas e E(εi)=0 xie εi são estatisticamente independentes. wi= xiεi = uma observação em uma amostra aleatória, com matriz de covariância constante e o vetor de média igual a zero. converge para sua esperança.

  33. Limite de probabilidade Pela hipótese de exogeneidade e pela lei das expectativas iteradas:

  34. Limite de probabilidade Pela decomposição da variância:

  35. Limite de probabilidade EMQ é consistente!!

  36. Distribuição assintótica O comportamento limite de b é o mesmo da estatística resultante da substituição da matriz de momentos pelo seu limite. Examinamos o comportamentoda seguinte soma modificada:

  37. Resultados Assintóticos Qual a média desta variável aleatória? Qual sua variância? Esta soma converge para algo? Podemos achar o limite de probabilidade. Qual a distribuição assintótica?

  38. Distribuição assintótica • b β em probabilidade. Como descrever esta distribuição? • Não tem uma distribuição limite • Variância b  0 • Como estabilizar a variância? Var[n b] ~ σ2Q-1 • Mas, E[n b]= n β que diverge • n (b- β)  é uma variável aleatória com média e variância finitas (transformação que estabiliza) • b aproximadamente β +1/ n vezes a variável aleatória.

  39. Distribuição limite n (b- β) = n (X’X)-1X’ε = (X’X/n)-1(X’ε/ n) No limite, isto é igual a (plim): Q-1(X’ε/n) Q é uma matriz positiva definida. Comportamento depende da variável aleatória (X’ε/n)

  40. Distribuição no limite: Normal

  41. Distribuição no limite: Normal

  42. Distribuição no limite: Normal

  43. Distribuição assintótica

  44. Consistência de s2

  45. Consistência de s2

  46. Eficiência assintótica Um estimador é assintoticamente eficiente se é consistente, assintoticamente normalmente distribuído, e tem uma matriz de covariância que não é maior que uma matriz de covariância de qualquer outro estimador consistente e com distribuição assintótica normal.

  47. Econometria Propriedadesassintóticas dos estimadores MQO (continuação) Inferência – grandesamostras

  48. Estatísticas de testes Como estabelecemos a distribuição assintótica de b, podemos construir estatísticas de testes. Baseamos os testes na estatística de Wald. F[J,n-K] = (1/J)(Rb - q)’[R s2(XX)-1R]-1(Rb - q) Esta é a estatística de teste usual para testar hipóteses lineares no modelo de regressão linear, seguindo uma distribuição F exata se os erros são normalmente distribuídos. Qual o resultado mais geral? Quando não se assume normalidade.

  49. Estatística de Wald Abordagem geral considerando uma distribuição univariada Quadrado de uma variável normal padrão  qui-quadrada com 1 grau de liberdade. Suponha z ~ N[0,2] , desta forma (z/)2 é uma qui-quadrada com 1 gl. Suponha z~N[,2]. [(z - )/]2 é uma qui-quadrada com 1 gl. Esta é a distância normalizada entre z e , onde a distância é medida em unidades de desvios padrão. Suponha zn não é exatamente normalmente distribuída, mas (1) E[zn] = , (2) Var[zn] = 2, (3) a distribuição limite de zn é normal. (zn - )/ N[0,1], que é uma distribuição limite , não é uma distribuição exata em uma amostra finita.

  50. Extensões Logo: n2 = [(zn - )/]2 {N[0,1]}2, ou 2[1]. Novamente, uma distribuição limite, não é uma distribuição exata. Suponha  desconhecido, e substituímos  por um estimador consistente para , ou seja sn, tal que plim sn = . O que acontece com este “análogo empírico”? tn = [(zn - )/sn]? Como plim sn = , o comportamento desta estatística em uma grande amostra será igual ao comportamento da estatística original usando  ao invés de sn. tn2 = [(zn - )/sn]2 converge para uma qui-quadrada[1]. tn e n convergem para a mesma variável aleatória.

More Related