1 / 59

Ekonometrija 1D

Ekonometrija 1D. Ekonometrija, Doktorske studije Predavač: Aleksandra Nojković Beograd, školska 2012/13 Napomena: U izradi prezentacija korišćena je literatura predviđena IP predmeta i materijali prof. Zorice Mladenović. Struktura predavanja. • Narušavanje pretpostavki KLRM

louis
Download Presentation

Ekonometrija 1D

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Ekonometrija 1D Ekonometrija, Doktorske studije Predavač: Aleksandra Nojković Beograd, školska 2012/13 Napomena: U izradi prezentacija korišćena je literatura predviđena IP predmeta i materijali prof. Zorice Mladenović.

  2. Struktura predavanja • Narušavanje pretpostavki KLRM • Heteroskedasticnost • Autokorelacija • Multikolinearnost • Slucajna greška nema normalnu raspodelu • Specifikacija modela • Pristupi u ekonometrijskom modeliranju

  3. Narušavanje pretpostavki KLRM Heteroskedastičnost Autokorelacija Multikolinearnost Greška nema normalnu raspodelu

  4. Pretpostavke KVLRM 1. E(εi) = 0 2. Var(εi) = 2 <  3. Cov (εi,εj) = 0 za i različito od j 4.Objašnjavajuće promenljive nisu određene stohastičkim članom 5.εiN(0,2) 6. Ne postoji tačna linearna zavisnost između objašnjavajućih promenljivih.

  5. Šta ako su pretpostavke KVLRM narušene? • Kada dolazi do narušavanja pretpostavki? • Kako se to odražava na ocene parametara i na standardne greške ocena? • Kako se ispituje da li su pretpostavke narušene ili ne? • Šta raditi u slučaju kada su pretpostavke narušene?

  6. Pretpostavka 1: E(εi) = 0 • Ukoliko postoji sistematska greška u merenju zavisne promenljive tada ce ova pretpostavka biti narušena. • Koristimo reziduale u analizi. • Primenom metoda ONK na model u kojem postoji slobodan član uvek se dobija rezultat da je rezidualna suma jednaka nuli, što znaci da je i njihova aritmetička sredina nula. Sledstveno, ne možemo zakljuciti da je pretpostavka narušena. • Nema negativnih posledica ako koristimo klasičan model u kojem figuriše slobodan član (za E(εi)=k).

  7. Pretpostavka 1: E(εi) = 0 (nastavak) • Uzrok je najčešće neka izostavljena promenljiva. • U slučaju nekorelisanosti sa drugim regresorima, ocenom konsatantnog člana modela može se kontrolisati njen uticaj. • U slučaju korelisanosti sa uključenim regresorima, pored ove, narušena je i pretpostavka o nezavisnosti greške i regresora (posledice pristrasne i nekonzistentne ocene).

  8. Pretpostavka 2: Var(εi) = 2 < Homoskedastičnost • Homoskedastičnost: varijansa slučajne greške modela je konstantna za sve opservacije. • Heteroskedastičnost: pretpostavka o homoskedastičnosti je narušena, što znači da se varijanse slučajnih greški razlikuju po pojedinim opservacijama:

  9. Homosedastične (levo) iheteroskedastične (desno) greške

  10. Kako se proverava postojanja heteroskedastičnosti? • Neformalni (grafički) metodi • Formalni metodi (testiranje) 1. Grafički prikazi: dijagram rasturanja tačaka reziduala u odnosu na neku od objašnjavajućih promenljivih

  11. Kako se proverava postojanje heteroskedastičnosti (II)? • Formalni testovi: • Goldfeld-Kvant (engl. Goldfeld-Quandt) test • Glejzeov (engl. Glejser) test • Brojš-Pegan-Godfri (engl. Breusch-Pagan-Godfrey) test - Vajtov (engl. White) test • Osnove testova: Nulta hipoteza: slucajne greške imaju stabilnu varijansu (homoskedastičnost grešaka) Alternativna hipoteza: varijansa greške raste sa porastom regresora (heteroskedastičnost grešaka) • Proveravamo validnost nulte hipoteze var(εi) = 2.

  12. Goldfeld-Quandtov test • Algoritam: • Pretpostavimo da je polazni model oblika: • Opservacije poređati prema rastućem redosledu nezavisne promenljive. • Izostaviti jedna broj (c) centralnih opservacija (oko četvrtina). • Obaviti odvojeno regresije za prvih i poslednjih (n-c)/2 opsrevacija. • Statistika testa je: pri čemu se indeks 1 odnosi na reziduale dobijene za niže vrednosti regresora, a indeks 2 za više. • Pogodan za modele sa malim brojem param. i velike uzorke.

  13. Glejser-ov test • Ne zahteva se apriorno poznavanje prirode heteroskedastičnosti. • Algoritam: • Iz polazne regresije računaju se reziduali • Ocenjiju se sledeće regresije: (parametar h najčešće:1,-1,1/2 i 2). 3. Testa se statistička značajnost ocene parametra δ1 primenom t-testa. 4. Upoređuju se koef. determinacije dobijeni za različite vrednosti h, a sam karakter heteroskedastičnosti određuje se prema regresiji sa najvećim R2.

  14. Preusch-Pagan-Godfrey test • Bazira se na testiranju zavisnosti variranja reziduala od visine svih regresora. • Posmatramo model: • Nulta hipoteza da nema hetroskedastičnosti, prema alternativnoj da je varijansa grešaka lin. fun. regresora. • Algoritam: • Oceni se polazni model da bi se dobili reziduali. • Izračuna se ocenjena vrednost varijanse reziduala metodom MV: • Izračunati promenljivu:

  15. Preusch-Pagan-Godfrey test (nastavak) 4. Novu promenljivu regresirati na sve regresore polaznog modela: i izračunati sumu objašnjenih varijacija: 5. Formirati sledeću statistiku testa, koja poseduju asimptotsku Χ2 raspodelu: gde je k broj stepeni slobode, jednak broju regresora (bez konstante). Napomena: Reč je asimptotskom testu LM (sledi).

  16. White test • Osnove testa: Nulta hipoteza: slucajne greške imaju stabilnu varijansu Alternativna hipoteza: varijansa slucajne greške jezavisna od objašnjavajucih promenljivih, njihovih kvadrata i međuproizvoda. • Algoritam: • Pretpostavimo da je polazni model oblika: 2. Ocenjujemo model iz 1., dobijamo reziduale i potom ocenjujemo pomocnu regresiju:

  17. White test (nastavak) 3. Fakticki, nulta hipoteza se svodi na: 4. Odredujemo koeficijent determinacije R2 iz pomocne regresije i potom ga množimo obimom uzorka n. To je (nR2 ) Whiteova test-statistika.Može se pokazati da pri istinitosti nulte hipoteze važi:nR22sa m stepeni slobode i mje broj objašnjavajućih promenljivih pomoćne regresije bez slobodnog člana (m=5). 5. Ako je izracunata vrednost test-statistike veca od korespondirajuce kriticne vrednosti 2 testa na datom nivou znacajnosti tada se odbacuje nulta hipoteza o odsustvu heteroskedasticnosti.

  18. Posledice primene metoda ONK u prisustvu heteroskedastičnosti • Primenom metoda ONK na model sa heteroskedastičnim greškama dobijaju se ocene koje nisu najbolje linearne nepristrasne ocene. • Ocene su nepristrasne • Ocene nisu efikasne–njihova varijansa nije najmanja moguća • Posledice: • Standardne greške ocena nisu precizna mera varijabiliteta ocena. • Standardne greške ocena najčešće potcenjuju stvarnu varijansu ocena parametara modela. • t-odnosi su nepouzdani.

  19. Kako se eliminiše uticaj heteroskedastičnosti (I) ? • Primenjuje se metod ponderisanih najmanjih kvadrata (metod uopštenih najmanjih kvadrata). • Ideja: u postupku minimiziranja sume kvadrata reziduala, onim rezidualima koji su po apsolutnoj vrednosti veći daje se manji ponder i obratno.

  20. Kako se eliminiše uticaj heteroskedastičnosti (II)? • Pretpostavimo da postoji zavisnost varijanse slučajne greške od objašnjavajuće promenljive xt • Sve promenljive modela delimo sa merom varijabiliteta, xt • U ovom modelu nova slučajna greška je Njena varijansa je stabilna:

  21. Kako se eliminiše uticaj heteroskedastičnosti (III)? • Metod ONK se primenjuje na nove reziduale koji se dobijaju tako što se stari reziduali množe sa ponderima • Što su vrednosti objašnjavajuće promenljive xt veće, to je varijabilitet slučajne greške veći, ali je zato udeo reziduala u ukupnoj sumi reziduala manji. • Time se postiže preciznost u postavljanju prave.

  22. Alternativni pristupi eliminisanja efekata heteroskedastičnosti 1.Koristimo logaritmovane vrednosti podataka. 2.Prilikom računanja standardnih grešaka ocena pravimo korekciju koju je predložio Vajt (engl. White). Na ovaj nacin dobijaju se standardne greške ocena koje su vece od standardnih grešaka ocena po metodu ONK. Ovo je najzastupljeniji pristup u empirijskoj analizi poslednjih godina.

  23. Pretpostavka 3: Cov (εi , εj) = 0 zaijOdsustvo autokorelacije • Odsustvo autokorelacije: slučajne greške su nekorelisane • Cov (εi , εj) = 0 zaij Nema pravilnosti u korelacionoj strukturi slučajnih greški. • Postoji autokorelacija: slučajne greške koje su uređene tokom vremena su korelisane • Cov (εi , εj)  0 zaij Slučajne greške slede prepoznatljiv obrazac u kretanju. • Najčešća se javlja u analizi vremenskih serija: • Cov (εt , εt-j)  0 zaj=1,2,...

  24. Zašto se javlja autokorelacija? • Trajni efekat egzogenih šokova na kretanje ekonomskih vremenskih serija • Primer: obustava rada i ocenjivanje zavisnosti ostvarene proizvodnje od količine uloženog rada. • Inercija u kretanju ekonomskih veličina. • Modifikacija polaznih podataka • Neki kvartalni podaci se dobijaju kao prosek tromesečnih vrednosti. • Autokorelacija može biti “prava” i “lažna” • “Prava”: posledica prirode podataka • “Lažna”: model je pogrešno postavljen. • Autokorelacija može biti pozitivna ili negativna.

  25. Pozitivna autokorelacija(reziduale karakterišeciklicna promena znaka tokom vremena)

  26. Negativnaautokorelacija (reziduali naizmenično menjaju znak)

  27. Ne postoji autokorelacija

  28. Ispitivanje postojanja autokorelacije: Darbin-Votsonov (engl. Durbin-Watson)test • Darbin-Votsonovtest (oznaka: DW ili d) se koristi za proveru postojanja autokorelacije prvog reda: εt = εt-1 + vt gde je vt N(0, v2) i je autokorelacioni koeficijent prvog reda, koji se nalazi u intervalu (-1,+1).  = 0 ne postoji autokorelacija,  = 1, ekstremna pozitivna autokorelacija  = -1, ekstremna negativna autokorelacija 0<<1, pozitivna autokorelacija -1<<0, negativna autokorelacija Relevantne hipoteze: H0: =0 (nema autokorelacije) H1: 0(postoji autokorelacija prvog reda)

  29. DW test (II) • U postupku testiranja koriste se kritične vrednosti koje su autori testa označili kao donja i gornja kritična vrednost. • Donja kritična vrednost: dd, • Gornja kritična vrednost: dg. • Kritične vrednosti zavise od obima uzorka i broja objašnjavajućih promenljivih.

  30. DW test (III) • Ako je DW<2, ispitujemo postojanje + autokorelacije H0: =0 (nema autokorelacije) H1: >0(postoji pozitivna autokorelacija prvog reda) • Algoritam: • Kada je dg<DW<2, tada ne postoji autokorelacija • Kada je dd<DW<dg, tada test ostaje bez odluke • Kada je 0<DW<dd, tada postoji pozitivna autokorelacija.

  31. DW test (IV) • Ako je DW>2, ispitujemo postojanje - autokorelacije H0: =0 (nema autokorelacije) H1: <0(postoji negativna autokorelacija prvog reda) • Algoritam: • Kada je 2<DW<4-dg, tada ne postoji autokorelacija • Kada je 4-dg<DW<4-dd, tada test ostaje bez odluke • Kada je 4-dd<DW<4, tada postoji negativna autokorelacija.

  32. DW test (V) • Ograničenja u primeni: • Postoje situacije kada se primenom testa ne može doneti precizan zaključak. • Test je definisan samo za model sa slobodnim članom. • Testom se ne može proveriti postojanje autokorelacije većeg reda. • Test nije pouzdan u situaciji kada se kao objašnjavajuća promenljiva javlja zavisna sa docnjom: yt = β0 + β1x1t+1yt-1 +εt

  33. Opšti test autokorelacije:Brojš-Godfrijev (engl. Breusch-Godfrey) test • U opštem slucaju autokorelacija može biti reda m: • Nulta i alternativna hipoteza H0 : ρ1 = ρ2 =... =ρm=0 (ne postoji autokorelacija) H1 : bar jedan od parametara je razlicit od nule (postoji autokorelacija • Algoritam testiranja: 1. Pretpostavimo da je polazni model oblika: Yt = β0 + β1X1t + β2X2t + εt 2. Ocenjujemo model iz 1., dobijamo reziduale i potom ocenjujemo pomocnu regresiju: 3. Odredujemo koeficijent determinacije R2 iz pomocne regresije i potom ga množimo obimom uzorka T. To je ( T R2 ) Brojš-Godfrijeva test-statistika. Može se pokazati da važi: T R22sa m stepeni slobode,pri uslovu istinitosti nulte hipoteze.

  34. Posledice primene metoda ONK u prisustvu autokorelacije • Primenom metoda ONK na model sa autokorelisanim greškama dobijaju se ocene koje nisu najbolje linearne nepristrasne ocene. • Ocene su nepristrasne • Ocene nisu efikasne – njihova varijansa nije najmanja moguća • Posledice: • Standardne greške ocena nisu precizna mera varijabiliteta ocena. • Standardne greške ocena najčešće potcenjuju stvarnu varijansu ocena parametara modela. • t-odnosi su nepouzdani.

  35. Kako se eliminiše uticaj autokorelacije? • Korekcija polaznog modela u pravcu transformisanja promenljivih • Prevaziđen pristup u praktičnom radu. • Korekcija polaznog modela u pravcu eksplicitnog ukljucivanja dinamike – dinamicki modeli. • Korekcija standardnih grešaka ocena kako bi odražavale stvarni varijabilitet ocena parametara: Njui-Vestova korekcija (engl. Newey-West)

  36. Dinamički modeli • KLRM model je statički: yt = β0 + β1x1t + ... + βkxkt + εt • Model postaje dinamički ako se kao objašnjavajuće promenljive javljaju promenljive sa docnjama prvog reda, kako zavisne tako i objašnjavajućih promenljivih: yt = β0 + β1x1t + ...+ βkxkt + 1yt-1 +2x1t-1 + … + kxkt-1+εt • Mogu se dodati promenljive sa docnjama višeg reda: x1t-2 , yt-3, itd. • Ovo može biti problematično ako se kao objašnjavajuća javlja zavisna promenljiva sa docnjom. Ona je slučajna promenljiva, pa se na taj način narušava pretpostavka KLRM da objašnjavajuće promenljive nisu slučajne.

  37. Pretpostavka 4: Objašnjavajuće promenljive nisu slučajne promenljive • Objašnjavajuće promenljive uzimaju fiksirane vrednosti iz ponovljenih uzoraka: Cov (εt,Xit)=0, i=1,2,...,k. • Kada je ta pretpostavka narušena Cov (εt,Xit)≠0, i=1,2,...,k. tada su objašnjavajuće promenljive slučajne.

  38. Pretpostavka 4: Objašnjavajuće promenljive nisu slučajne promenljive • Objašnjavajuće promenljive uzimaju fiksirane vrednosti iz ponovljenih uzoraka: Cov (εt,Xit)=0, i=1,2,...,k. • Kada je ta pretpostavka narušena Cov (εt,Xit)≠0, i=1,2,...,k. tada su objašnjavajuće promenljive slučajne.

  39. Stohastički regresori • Slučajna objašnjavajuća promenljiva može biti: • Nezavisna od slučajne greške: cov(Xi, εj)=0, za svako i,j - Ocene su sa poželjinim svojstvima. 2.Korelisana sa slučajnom greškom za istu jednicu posmatranja: cov(Xi, εj)≠0, za i=j - Ocene su pristrasne i nekonzistentne. 3. Korelisana sa slučajnom greškom za različite opservacije: cov(Xi, εj)≠0, za i≠j - Ocene su pristrasne, ali konzistentne.

  40. Kada je ta pretpostavka narušena? • Dinamički model: yt = b0 + b1x1t+1yt-1 +εt Kako je ytkorelisano saut, to jeyt-1korelisano sa ut-1. Objašnjavajuća promenljiva yt-1 je slučajna. • Simultane zavisnosti: U jednačini za ytobjašnjavajuća promenljiva xt je slučajna. • Postoji greška u merenju promenljivih.

  41. Promenljive sa greškom i približne varijable • Razlikujemo sledeća dva slučaja merenja promenljivih sa greškom: • Podaci za objašnjavajuću promeljivu su pogrešno izmereni, pa se javlja korelacija između ove promenljive i greške modela – ocene su pristrasne i nekonzistentne. • Podaci za zavisnu promenljivu su mereni sa greškom, pri čemu se neće javiti problem korelisanosti objašnjavajuće prom. i greške modela – ocene su nepristrasne i neefikasne. • Uključivanje približne prome. (zamene), smanjuje asimptotsku pristrasnost u poređenju sa pristrasnošću koja nastaje izostavljanjem tog regresora. • Posledice korišćenja zamene po ocene varijansi ocena se takođe mogu smatrati boljom strategijom kroz širok stepen empirijskih situacija (zavisi od visine gr. merenja, stepena zavisnosti pravog regresora i zamene i veličine uzorka).

  42. Posledice prisustva slučajnih objašnjavajućih promenljivihi metode za prevazilaženje problema • Ocene dobijene metodom ONK su pristrasne i nekonzistentne. • Koristi se metod instrumentalnih promenljivih (sledi detaljnije kao metod ocenjivanja SSJ). • Ocene dobijene metodom IP (IV) su pristrasne, ali konzistentne.

  43. Pretpostavka 6: Objašnjavajuće promenljive nisu linearno zavisne • Multikolinearnost: između objašnjavajućih promenljivih gotovo uvek postoji izvestan stepen korelisanosti. • Problem nastaje kada je ta korelisanost izuzetno visoka. • Nije u pitanju prisustvo multikolinearnosti, već stepen u kojem se javlja. • Perfektna multikolinearnost: objašnjavajuće promenljive su linearno zavisne • U tom slučaju model ne može da se oceni. • Ne može da se razdvoji pojedinačni uticaj objašnjavajućih promenljivih.

  44. Posledice visoke multikolinearnosti • Ocene regresionih parametara su neprecizne u smislu visokih standardnih grešaka ocena. • Ocene su nestabilne, odnosno osetljive na promenu uzorka. • t-odnosi su niski i mogu dovesti do pogrešnog statističkog zaključka. • Visoka vrednost koeficijenta determinacije je praćena niskim t-odnosima.

  45. Ispitivanje postojanja multikolinearnosti • Reč je o problemu uzorka, tako da se ne može postaviti odgovarajuci skup hipoteza koje bi se testirale, a time ni definisati precizan test. • Najčešće korišćen pristup: • Upoređuje se koeficijent determinacije čitave regresije sa koeficijentima determinacije u modelu u kojem se jedna objašnjavajuća promenljiva ocenjuje u zavisnosti od druge. • Izracunava se faktor rasta varijanse (FRV): FRV blizu 1 – multikolinearnost nije izražena. FRV uzima visoke vrednosti-multikolinearnost je izražena.

  46. Kako rešiti problem visoke multikolinearnosti? • Ignorisati ga. • Promeniti uzorak dodavanjem novih podataka. • Koristiti podatke koji se dobijaju transformacijom polaznih podataka • Svi podaci se dele sa promenljivom koja stvara problem. • Koriste se prve diference promenljivih. • Izostaviti promenljivu koja stvara problem. • Metod glavnih komponenata (zasebna ppt.prez.) • Svaki od navedenih pristupa može rešiti problem visoke multikolinearnosti, ali i stvoriti neki novi...

  47. Pretpostavka 5: Slučajna greška ima normalnu raspodelu • Ukoliko je samo ova pretpostavka narušena primenom metoda ONK se dobijaju najbolje linearne nepristrasne ocene. • Testiranje hipoteza je nepouzdano. • Test normalnosti - Žark-Bera (engl. Jarque-Bera) test (JB) • Empirijska raspodela se opisuje sa dva koeficijenta: asimetrije i spljoštenosti • Koeficijent asimetrije meri stepen u kojem raspodela nije simetricna oko srednje vrednosti (simetricna raspodela, asimetricna u levo ili u desno) • Koeficijent spljoštenosti meri debljinu repa raspodele • Kada postoje ekstremni dogadaji tada su repovi teži od repova normalneraspodele • Veca spljoštenost – repovi su lakši • Manja spljoštenost – repovi su teži.

  48. Šta raditi u slučaju da raspodela odstupa od normalne? • Ne postoji jedinstveno rešenje. • Mogu se koristiti metode testiranja koje ne pretpostavljaju normalnost, ali su one izuzetno komplikovane i njihova svojstva nisu poznata. • Najčešće se modifikuje polazna specifikacija uključivanjem promenljivih kojima će se eksplicitno modelirati ekstremni događaji. Takve promenljive se nazivaju veštačke promenljive.

  49. Specifikacija modela • Formulacija matematičke forme regresione jednačine • Izbor skupa objašnjavajućih promenljivih • Postavka pretpostavki o slučajnoj greški • Do sada smo razmatrali 3. pod pretpostavkom da je 1. i 2. korektno • Greške specifikacije: • Pogrešna funkcionalna forma • Pogrešan skup objašnjavajućih promenljivih • Pogrešno postavljene pretpostavke o svojstvima slučajne greške

  50. • Greške specifikacije (u užem smislu) • Izostavljanje relevantnih promenljivih • Uključivanje irelevantnih promenljivih • Netačna matematička forma regresione jednačine. • Netačna specifikacija uticaja slučajnog člana (greške) jednačine

More Related