1 / 34

Análise da Regressão múltipla: Inferência Revisão da graduação

Análise da Regressão múltipla: Inferência Revisão da graduação. Hipóteses do modelo linear clássico (CLM). Sabemos que, dadas as hipóteses de Gauss-Markov, MQO é BLUE . Para realizarmos os testes de hipóteses clássicos, precisamos acrescentar mais uma hipótese.

belle
Download Presentation

Análise da Regressão múltipla: Inferência Revisão da graduação

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Análise da Regressão múltipla: InferênciaRevisão da graduação

  2. Hipóteses do modelo linear clássico (CLM) • Sabemos que, dadas as hipóteses de Gauss-Markov, MQOé BLUE. • Para realizarmos os testes de hipóteses clássicos, precisamos acrescentar mais uma hipótese. • Vamos supor que ué independente dex1, x2,…, xke queue normalmente distribuído com média zero evariâncias2: u ~ Normal(0,s2).

  3. Hipóteses do CLM (cont.) • Sob CLM, MQO é não apenas BLUE, mas também o estimador não-viesado de variância mínima. • Podemos resumir as hipóteses do CLM como: • y|x ~ Normal(b0 + b1x1 +…+ bkxk, s2) • Embora assumamos normalidade, nem sempre ela se verifica. • Em grandes amostras, a hipótese de normalidade não é necessária.

  4. Uma distribuição normal homocedástica com uma única variável explicativa y f(y|x) . E(y|x) = b0 + b1x . Distribuições normais x1 x2

  5. Distribuição normal amostral

  6. O teste t

  7. O testet (cont.) • O conhecimento da distribuição amostral dos estimadores nos permite fazer testes de hipóteses. • Comece com a hipótese nula. • Por exemplo, H0: bj=0 • Se aceitamos a nula, aceitamos que xj, após controlarmos pelos outrosx’s,não tem efeito em y.

  8. O testet (cont.)

  9. Testet: caso unicaudal • Além de nossa, H0, precisamos de uma hipótese alternativa, H1, e um nível de significância. • H1pode ser unicaudal ou bicaudal. • H1: bj > 0 e H1: bj < 0 são unicaudais. • H1: bj 0 é bicaudal. • Se queremos apenas 5% de probabilidade de rejeitar H0caso ela seja, então dizemos que nosso nível de significância é de 5%.

  10. Alternativa unicaudal (cont.) • Escolhido um nível de significância, a, olhamos no (1 – a)-ésimo percentil na distribuiçãotcomn – k – 1 df e chamamos esse valor,c, de valor crítico. • Rejeitamos a hipótese nula se a estatísticaté maior que o valor crítico. • Se a estatística tfor menor que o valor crítico, então não rejeitamos a nula.

  11. Alternativa unicaudal (cont.) yi = b0 + b1xi1 + … + bkxik + ui H0: bj = 0 H1: bj > 0 Não rejeitamos Rejeitamos (1 - a) a c 0

  12. Uni vs bicaudal • Como a distribuição té simétrica,testar H1: bj < 0 é direto. O valor crítico é simplesmente o negativo do anterior. • Rejeitamos a nula se t < –c; se t > –c,então não rejeitamos a nula. • Para um teste bicaudal, escolhemos um valor crítico baseado em a/2 e rejeitamos H1: bj 0 se o valor absoluto da estatística tfor > c.

  13. Alternativa bicaudal yi = b0 + b1Xi1 + … + bkXik + ui H0: bj = 0 H1: bj ≠ 0 Não rejeitamos Rejeitamos Rejeitamos (1 - a) a/2 a/2 -c c 0

  14. Resumo de H0: bj = 0 • A menos que seja explicitado ao contrário, estaremos considerando a alternativa bicaudal. • Se rejeitamos a nula, dizemos que “xjé estatisticamente significanteao nível de a%” • Se não rejeitamos a nula, dizemos “xjé estatisticamente não significativo ao nível dea %”

  15. Testando outras hipóteses • Podemos generalizar a estatísticattestando H0: bj = aj. • Neste caso,a estatísticaté dada por

  16. Intervalos de confiança • Outra forma de usar os procedimentos clássicos de teste de hipóteses é construindo um intervalo de confiança utilizando o mesmo valor crítico do teste bicaudal. • Um intervalo de confiança de (1 - a) % é definido por:

  17. Calculando o p-valor do testet • Uma alternativa ao procedimento clássico de teste é perguntar: “qual é o menor nível de significância ao qual a nula seria rejeitada?” • Calcule a estatísticat, e olhe em que percentil ela está na distribuição tapropriada – este é op-valor. • O p-valor é a probabilidade de observarmos valores iguais ou maiores (em valor absoluto)à estatística t obtida se a nula for verdadeira.

  18. P-valores, testes t´s etc. • A maioria dos pacotes calcula o p-valor, assumindo um teste bicaudal. • Se se estiver interessado na alternativa unicaudal, basta dividir o p-valor reportado por 2.

  19. Testando uma combinação linear • Ao invés de testar se b1é igual a uma constante, podemos testar que ele é igual a outro parâmetro, ou seja, H0 : b1 = b2. • Use o mesmo procedimento para calcular a estatística t

  20. Testando uma combinação linear (cont.)

  21. Testando uma combinação linear (cont.) • Então, precisamos de s12. • Muitos pacotes, como o Eviews, fornecem essa estatística. • Mas o Eviews tem uma opção que permite fazer o teste automaticamente. • O teste pode ser reescrito, conforme mostrado a seguir.

  22. Exemplo: • Suponha que você esteja interessado nos efeitos dos gastos de campanha no resultado das eleições. • O modelo évotoA = b0 + b1log(gastoA) + b2log(gastoB) + b3prtystrA + u • H0: b1 = - b2, ou H0: q1 = b1 + b2 = 0 • b1 = q1 – b2; substituindo e rearranjando  votoA = b0 + q1log(gastoA) + b2log(gastoB - gastoA) + b3prtystrA + u

  23. Exemplo (cont.): • É o mesmo modelo, mas agora você tem um erro padrão parab1 – b2 = q1diretamente da regressão. • Qualquer combinação linear de parâmetros pode ser testada de forma similar. • Outros exemplos de testes de hipóteses sobre uma única combinação linear de parâmetros: • b1 = 1 + b2 ; b1 = 5b2 ; b1 = -1/2b2; etc

  24. Múltiplas restrições lineares • Os exemplos anteriores eram de uma única restrição linear (p.e. b1 = 0 or b1 = b2 ) • Mas também podemos testar conjuntamente múltiplas hipóteses sobre os parâmetros. • Um exemplo é do “restrição de exclusão” – queremos testar se um grupo de parâmetros é igual a zero.

  25. Teste de restrição de exclusão • Agora, a hipótese nula é algo do tipo H0: bk-q+1 = 0, ... , bk = 0 • A alternativa é H1: H0é falsa, ou seja, pelo menos um dos b´s é diferente de zero. • Não podemos apenas fazer cada teste tisoladamente, porque queremos saber se os qparâmetros são conjuntamente significativos a um certo nível – é possível que nenhum seja individualmente significante a este nível.

  26. Teste de restrição de exclusão (cont.) • O teste é feito estimando o “modelo restrito” sem xk-q+1,, …, xk, assim como o “modelo irrestrito”com todos os x’s. • Intuitivamente, queremos saber se xk-q+1,, …, xkcausam uma variação suficientemente grande na SSR

  27. A estatísticaF • A estatística F é sempre positiva, uma vez que a SSR do modelo restrito não pode ser menor que a do modelo irrestrito. • A estatística F statistic mede o crescimento relativo na SSR quando se passa do modelo irrestrito para o modelo restrito. • q = número de restrições, ou dfr – dfur • n – k – 1 = dfur

  28. A estatísticaF (cont.) • Para decidir se o aumento na SSR é “grade o suficientes” para rejeitar as exclusões, precisamos conhecer a distribuição amostral de nossa estatística F. • Não é de se surpreender queF ~ Fq,n-k-1, ondeqé o número de graus de liberdade do numerador en – k – 1 é o número de graus de liberdade do denominador.

  29. A estatísticaF (cont.) f(F) Rejeita H0ao nível de significânciaaseF > c Não rejeita Rejeita a (1 - a) 0 c F

  30. A estatística F em função doR2 • Podemos usar o fato de que, em qualquer regressão, SSR = SST(1 – R2) e substituir na fórmula:

  31. Significância da regressão • Um caso especial é o teste H0: b1 = b2 =…= bk = 0. • Como o R2do modelo com apenas o intercepto será zero, a estatística Fserá simplesmente:

  32. Restrições lineares gerais • A forma básica da estatística Fé válida para qualquer restrição linear. • Primeiro estime os modelos irrestrito e restrito. • Em cada caso, anote a SSR e substitua na fórmula.

  33. Exemplo: • O modelo is votoA = b0 + b1log(gastoA) + b2log(gastoB) + b3prtystrA + u. • Agora a nula é H0: b1 = 1, b3 = 0. • Substituindo a restrição:votoA = b0 + log(gastoA) + b2log(gastoB) + u. • AgoravotoA - log(gastoA) = b0 + b2log(gastoB) + ué o modelo restrito.

  34. Estatística F: Resumo • Da mesma forma que no teste t, op-valorpode ser calculado olhando no percentil da distribuição Fapropriada. • Se apenas uma exclusão está sendo testada, então F = t2 e o p-valor será o mesmo.

More Related