180 likes | 527 Views
多元迴歸分析. 多元迴歸分析. 多元迴歸分析的「逐步回歸法」,是運用甚為廣泛的複回歸分析法之一,也是多元迴歸分析報告中出現機率最多的一項預測變項的方法 它結合順向選擇法與反向剔除法兩種方式的優點. 順向選擇法. 自變項一個一個進入迴歸模式中 第一個步驟 : 首先進入方程式的是自變項是與依變項關係最密切者,即與依變項有最大正相關或最大負相關者 第二個步驟 : 選取與依變項間的淨相關為最大之自變項,進入迴歸模式 如果其標準化迴歸係數顯著性考驗之 F 值大於或等於內定的標準或 F 值進入的機率值小於或等於內定的標準 (.05) ,則此變項才可以進入迴歸模式中. 反向剔除法.
E N D
多元迴歸分析 • 多元迴歸分析的「逐步回歸法」,是運用甚為廣泛的複回歸分析法之一,也是多元迴歸分析報告中出現機率最多的一項預測變項的方法 • 它結合順向選擇法與反向剔除法兩種方式的優點
順向選擇法 • 自變項一個一個進入迴歸模式中 • 第一個步驟:首先進入方程式的是自變項是與依變項關係最密切者,即與依變項有最大正相關或最大負相關者 • 第二個步驟:選取與依變項間的淨相關為最大之自變項,進入迴歸模式 • 如果其標準化迴歸係數顯著性考驗之F值大於或等於內定的標準或F值進入的機率值小於或等於內定的標準(.05),則此變項才可以進入迴歸模式中
反向剔除法 • 先將所有的自變項均納入迴歸模式中,之後再逐一對模式貢獻最小的預測變項移除,直到所有自變項均達到標準為止 • 剔除的標準 a.標準化迴歸係數顯著性考驗的F值最小 PS:SPSS內定剔除標準的最小F值為 2.71,最大的F值為0.10 b.最大的F機率值
在多元迴歸分析中,強迫輸入法也是一種常見的方法在多元迴歸分析中,強迫輸入法也是一種常見的方法 • 強迫輸入法也就是一般所稱的複迴歸分析法 • 強迫所有的變項有順序的進入迴歸方程式
標準化迴歸方程式 • ZY=β1ZX1+ β2ZX2+ β3ZX3+……+ βkZXK • 進入模式的標準是F的機率值要小於或等於.50,而移除的標準是F的機率值大於或等於.100 • See P.8-17
何謂多元迴歸分析 • 回歸分析法是定量預測方法之一。它依據事物內部因素變化的因果關系來預測事物未來的發展趨勢。由于它依據的是事物內部的發展規律,因此這種方法比較精確。測報工作中常用的是一元線性回歸和多元線性回歸模型。 • 一元線性回歸是指事物發展的自變量與因變量之間是單因素間的簡單線性關系,它的模型可以表示為: • y=a+bx • 其中y是因變量,x是自變量,a是常數,b是回歸系數。 • 多元線性回歸是指一個因變量與多個自變量之間的線性關系。模型的一般型式為︰ • y=a+b1x1+b2x2+…+bnxn • 其中,y是因變量,x1、x2、…xn是自變量,a是常數,b1、b2、…bn是回歸系數。
何謂多元迴歸分析~2 • 又稱複迴歸 • 只預測變項不只一個時的迴歸分析法
為增加迴歸分析的預測力,所有預測變項間的相關要愈低愈好,而每個預測變項與效標變項間的相關要愈高愈好。為增加迴歸分析的預測力,所有預測變項間的相關要愈低愈好,而每個預測變項與效標變項間的相關要愈高愈好。 • 若每個預測變項間的相關為0,則所有預測變項與效標變項的多元相關等於個別相關係數的總和,此時預測變項對效標變項的預測力最大。亦無多元共線性的問題。
迴歸分析的主要步驟 • 獲得迴歸係數 • 估計誤差的標準誤 • 估計迴歸係數的標準誤 • 考驗係數的顯著性 • 以所獲得係數進行預測 • 診斷模式的適合度
考驗個別迴歸係數是否顯著時,可利用t考驗; t考驗是將b矩陣除以b之估計標準誤得到t值。 • 個別迴歸係數的重要性通常以標準迴歸係數作為判定的標準,若其標準迴歸係數愈大,表示預測變數愈重要。
R2決定係數 • R2為預測變項聯合預測效標變項變異的百分比,其值愈高愈好。 • R2的期望值不為0,且若迴歸式運用於新樣本時,一般會有縮水(shrinkage)的現象,故運用校正公式
不管預測變項與效標變項是否有關,當預測變項愈多,R2則會愈大,但若加入無關變項,則反而會愈來愈小,甚至小於0,故有判別預測變項是否重要的功能不管預測變項與效標變項是否有關,當預測變項愈多,R2則會愈大,但若加入無關變項,則反而會愈來愈小,甚至小於0,故有判別預測變項是否重要的功能
選取預測變數的方法 • 選取預測變項的主要方法為計算變項淨進入F值(F-to-enter)與淨退出F值(F-to-remove),若前者大於設定的標準就進入迴歸方程式,後者若小於設定的標準就退出迴歸方程式,直到沒有任何變項達到標準為止。 • 強迫進入(enter method) 強迫所有的預測變項一次進入迴歸方程式,而不考慮個別變數是否顯著
前向選取法(forward method) 依次放入淨進入F值最大的變數,一直到沒有符合條件的變數為止 • 後向選取法(backward method) 先將所有的變數放入迴歸方程式,然後依次剔除淨退出F值最大的變數,一直到沒有符合條件的變數為止 • 逐步法(stepwise method) 以前向選取法為主,當變數進入迴歸方程式後,則改採後向選取法,將不重要的變數剔除,若無可剔除之變數,則繼續採用以前向選取法,如此反覆,一直到沒有變項被選取或剔除為止
所有可能方法 將所有變數加以組合(所有可能組合數目為2k-1),然後根據R2或Mallows Cp等準則選擇最佳的組合當成預測變數
迴歸分析的基本假設 • 變項間為線性關係 • 殘差的標準在各觀察體上保持恆定,即為殘差之等分散性(homoscedasticity) • 殘差獨立性,即相關為0 • 殘差為常態分配,即期望值為0
多元共線性 • 預防多元共線性,預測變項最好不要有太高的相關(變項間相關若高於0.8,即亦產生共線性問題) • 若有共線性問題,一般採用的方法如下: • 將彼此相關係數較高的預測變項只取一個重要變項投入分析。 • 使用脊迴歸(ride regression) • 使用主成分迴歸(principle regression)