230 likes | 583 Views
הרצאה 5. נושאים באקונומטריקה יישומית 1. אסימפטוטיות. עד כה דנו בתכונות אומדי OLS במדגמים סופיים או במדגמים קטנים. לדוגמא, הסקנו את חוסר ההטיה של אומדי OLS תחת הנחות 1-4. זו תכונה של מדגם סופי מכיוון שהיא נכונה לכל n ( n>k+1 )
E N D
הרצאה 5 נושאים באקונומטריקה יישומית 1
אסימפטוטיות • עד כה דנו בתכונות אומדי OLS במדגמים סופיים או במדגמים קטנים. • לדוגמא, הסקנו את חוסר ההטיה של אומדי OLS תחת הנחות 1-4. • זו תכונה של מדגם סופי מכיוון שהיא נכונה לכל n (n>k+1) • אנו גם הוספנו הנחה נוספת ש-u מתפלגת נורמאלית וכי היא בלתי תלויה במשתנים המסבירים. • זה אפשר לנו להראות כי אומדי OLS הם בעלי התפלגות דגימה נורמאלית, מה שהוביל להתפלגויות t ו-F של t סטטיסטי ו-F סטטיסטי.
אסימפטוטיות • בנוסף לתכונות מדגם סופי, חשוב גם לדעת את התכונות האסימפטוטיות או תכונות מדגם גדול של אומדים ושל מבחנים סטטיסטיים. • אלו הן תכונות המוגדרות כאשר המדגם גדל ללא גבול. • ממצא חשוב אחד הוא שאפילו ללא הנחת הנורמאליות, ל-t סטטיסטי ו-F סטטיסטי יש התפלגויות כמעטt ו-F.
אסימפטוטיות • למרות שלא כל האומדים השמישים הם חסרי הטיה, כמעט כל הכלכלנים מסכימים שדרישה מינימאלית מאומד היא עקיבות • כלומר כאשר n∞, התפלגות האומד מתכנסת לערך הפרמטר. • באופן כללי יש לנו מדגם קבוע אז עקיבות כרוכה בניסוי מחשבתי לגבי שהיה קורה ככל שגודל המדגם גדל. • אם השגת נתונים נוספים לא מקרבת אותנו לערך הפרמטר שמעניין אותנו, אז אנו משתמשים בשיטת אמידה גרועה.
התפלגויות דגימה ככל ש- n n3 n1 < n2 < n3 n2 n1 b1
עקיבות אומדי OLS • תחת הנחות גאוס-מרקוב, אומדי OLS הינם עקיבים (וחסרי הטיה). • ניתן להוכיח עקיבות על מקרה הרגרסיה הפשוטה באופן שדומה להוכחת חוסר ההטיה. • אנו נצטרך לקחת את גבול ההסתברות (plim) כדי לקבוע עקיבות.
כמה מילים על plim • עקיבות: יהי Wn אומד ל- θ המבוסס על מדגם Y1, Y2, …, Yn מגודל n. אזי Wn יהיה עומד עקיב ל- θ אם לכל ε > 0 מתקיים: • P(|Wn – θ| > ε )0 as n ∞ • כאשר Wn עקיב, אנו נגיד גם ש- θ היא גבול ההסתברות של Wn, ונכתוב זאת כך: plim(Wn) = θ. • במילים אחרות, התפלגות Wn הופכת להיות מרוכזת יותר ויותר סביב θ ככל ש-n גדל. • אם האומד אינו עקיב, אז הוא לא עוזר לנו ללמוד על θ, אפילו עם כמות אינסופית של נתונים.
דוגמא: plim • אומדים חסרי הטיה אינם בהכרח עקיבים, אך אלו בעלי הסתברויות המתכנסות ל-0 כאשר גודל המדגם גדל הם עקיבים. • באופן רשמי: אם Wn הוא אומד חסר הטיה ל-θ וגם Var(Wn)0 ככל ש-n∞ אזי plim(Wn) = θ. • אנו יודעים שממוצע המדגם הוא אומד חסר הטיה ל-μ. אנו גם יודעים שהשונות של שווה ל- σ2/n. • ככל ש- n∞ כךσ2/n0 ולכן הינו אומד עקיב ל- μ (בנוסף להיותו חסר הטיה).
LLN • כאן החלנו את חוק המספרים הגדולים - LLN (מונה ומכנה מתכנסים לפרמטרים שלהם באוכלוסיה). • יהיו Y1, Y2, …Yn משתנים מקריים בלתי תלויים שווי התפלגות עם תוחלת μ. אזי, plim( )=μ. • משמעות חוק המספרים הגדולים היא שאם אנו רוצים לאמוד את תוחלת האוכלוסייה, μ, אנו יכולים לקבל קירוב שרירותי ל- μ על ידי בחירת מדגם מספיק גדול.
הנחה חלשה יותר • עבור חוסר הטיה, הנחנו תוחלת מותנית אפס – E(u|x1, x2,…,xk) = 0 • לעקיבות, יש לנו הנחה חלשה יותר של תוחלת אפס ומתאם אפס: E(u)=0 וגם Cov(xj,u)=0, לכל j = 1, 2, …, k • ללא הנחה זו, אומדי OLS יהיו מוטים ולא עקיבים!
הסקת חוסר העקיבות • בדיוק כפי שיכולנו להסיק את הטיית השמטת המשתנה, אנו רוצים עכשיו לחשוב על חוסר עקיבות, או הטיה אסימפטוטית, במקרה זה.
הטיה אסימפטוטית (המשך) • אז, כאשר אנו חושבים על הכיוון של ההטיה האסיטמפטוטית, זה בדיוק כמו לחשוב על כיוון ההטיה עבור האומד המושמט. • ההבדל העיקרי הוא שההטיה האסימפטוטית משתמשת בשונות ושונות משותפת של האוכלוסייה, בעוד הטיה משתמשת במקבילות המדגמיות שלהם. • יש לזכור כי חוסר עקיבות הינה בעיה של מדגם גדול – היא לא נעלמת כאשר אנו מוסיפים נתונים.
מסקנות המדגם הגדול • נזכור שלפי הנחות CLM, התפלגויות המדגמים הן נורמאליות, כך שיכולנו להסיק את התפלגויות t ו-F לצורך מבחנים סטטיסטיים. • הנורמאליות המדויקת הזו הייתה עקב ההנחה כי הסטיות באוכלוסיה מתפלגות נורמאלית. • הנחה זו של סטיות נורמאליות הובילה למסקנה שהתפלגות y בהינתן ה-xים, גם היא נורמאלית.
מסקנות המדגם הגדול (המשך) • קל לחשוב על דוגמאות בהן הנחת הנורמאליות המדויקת הזו לא מתקיימת. • כל משתנה שברור שהוא אסימטרי, כמו שכר, מספר מאסרים, חיסכון, וכו', לא יכול להיות נורמאלי, כי התפלגות נורמאלית היא סימטרית. • הנחת הנורמאליות אינה נדרשת כדי להסיק כי OLS הם BLUE, רק עבור בדיקת השערות (t סטטיסטי, רווח בר סמך וכו').
משפט הגבול המרכזי • בהתבסס על משפט הגבול המרכזי, אנו יכולים להראות כי אומדי OLS הם נורמאלים אסימפטוטית. • נורמאליות אסימפטוטית מרמזת כי P(Z<z)F(z) ככל ש- n, או ש- P(Z<z) F(z). • משפט הגבול המרכזי מצהיר כי הממוצע המתוקנן של כל אוכלוסיה בעלת תוחלת μ ושונות s2 היא ~N(0,1) אסימפטוטית או
נורמאליות אסימפטוטית תחת הנחות גאוס-מרקוב: (i) כאשר ו- הם השאריות מרגרסיה של xj על שאר המשתנים הבלתי תלויים. (ii) אומד עקיב ל-σ2. (iii)
נורמאליות אסימפטוטית (המשך) • מכיוון שהתפלגות t מתקרבת להתפלגות הנורמאלית עבור מספר גדול של דרגות חופש, אנו יכולים גם לומר כי • נשים לב שבעוד אנו כבר לא צריכים להניח נורמאליות עם מדגם גדול, אנו עדיין זקוקים להומוסקדסטיות.
שגיאות תקן נורמאליות • אם u לא מתפלג נורמאלית, אנו נתייחס לפעמים לשגיאת התקן בתור שגיאת תקן אסימפטוטית, מכייון ש: • אם כן, אנו יכולים לצפות ששגיאות התקן יקטנו ביחס פרופורציונאלי להופכי של √n
סטטיסטי כופל לגראנז' • ברגע שאנו משתמשים במדגמים גדולים ומסתמכים על הנורמאליות האסימפטוטית לבדיקת השערות, אנו יכולים להשתמש ביותר סטטיסטיים מעבר ל-t ול-F. • כופל לגראנז', או סטטיסטי LM הוא אלטרנטיבה לבדיקת מספר מגבלות. • מכיוון שסטטיסטי LM משתמש ברגרסיית עזר, לפעמים קוראים לו nR2 סטטיסטי. • הגדרה: רגרסיית עזר משמעותה מגבלה המשמשת לחישוב סטטיסטי למבחן (לדוגמא) בה לא באמת איכפת לנו מהמקדמים הנאמדים.
LM סטטיסטי (המשך) • נניח כי יש מודל סטנדרטי y=b0+b1x1+b2x2+...bkxk+u וכי השערת האפס שלנו היא: • H0: bk-q+1=0, ... , bk=0 • ראשית, רק נריץ את המודל המוגבל • כעת ניקח את השאריות הנאמדות , ונריץ את על x1, x2,…xk (כלומר כל המשתנים המסבירים. • , כאשר R2u הוא מהרגרסיה הזו.
LM סטטיסטי (המשך) • לכן ניתן לחשב ערך קריטי, c, מהתפלגות או פשוט לחשב p-value עבור • אם השערת האפס נכונה, אזי R2 מהרגרסיה של ũ על ה-xים צריכה להיות "קרובה" לאפס. • עם מדגם גדול, התוצאה ממבחן F וממבחן LM צריכה להיות דומה. • בניגוד למבחן F ומבחן t עבור מגבלה אחת, מבחן LM ומבחן F לא יהיו זהות.