190 likes | 546 Views
區別分析 (Discriminant). 以一組預測變項的線性組合 對一個分組變項重新加以分類, 並檢查其在分組的正確性。. 特性 : 因變項為 discrete 時的預測方程式的建構 例 1. 根據 : 高中在學成績、學習動機及社經背景等自變數。預測學生是否考上大學:錄取或未錄取 錄取國立、私立或未錄取 2. 行銷公司建構有效的自變項目,預測某新產品在市場上可能的行銷對象之購買意願 : 「會購買」、「可能購買」及「不會購買」三類。
E N D
區別分析(Discriminant) 以一組預測變項的線性組合 對一個分組變項重新加以分類, 並檢查其在分組的正確性。
特性:因變項為discrete時的預測方程式的建構 • 例 • 1.根據:高中在學成績、學習動機及社經背景等自變數。預測學生是否考上大學:錄取或未錄取 錄取國立、私立或未錄取 • 2.行銷公司建構有效的自變項目,預測某新產品在市場上可能的行銷對象之購買意願: 「會購買」、「可能購買」及「不會購買」三類。 • 分析的重點在建構區別方程式,有效的區別因變項的各群。
假設條件 • 自變項的觀察值服從多變量常態。 • 因變項各組樣本在自變項上之變異數與共變異數必須具有同質性。 • 建立區別方程式並進行顯著性檢定
建立區別方程式進行顯著性檢定 • 線性區別方程式 • 典型區別方程式 • 逐步區別分析
I. 線性區別方程式的數學模式 p為自變項個數,k為分組數。 • 標準化 方程式 範例
區別方程式需要幾條 • Bartlett (1947)提出V統計量 對第a個方程式 時,表示第 a 個方程式可以有效的區分樣本在因變項上的差異。 a = 1, 2,…, j逐一檢定
自變項在各區別方程之意義 • 以標準化為主,係數越大表示自變項之重要性越高。 • 仿照因素分析,對區別方程式進行轉軸,可得到各自變項在區別方程式上之結構負荷量(structure loading) • 根據結構負荷量之絕對值在0.5以上的幾個自變項,對區別方程式進行命名(Sharma, 1996)。 • 區別方程式的建立以 • likelihood ratio rule、linear discriminant equation 、Mahalanobis distance及posterior probability rule等方法建立分類方程式。
II. 典型區別(Fisher Discriminant) 令 找 使得 最大,即為典型變量。
II. 典型區別(Fisher Discriminant) • 根據典型變量,每一筆觀察資料 都有一個區別分數(discriminant score) 。因變項的各組的平均向量 也可以求出該組的平均區別分數 。再以分數最接近的組別作為預測的組別。
III. 逐步區別分析 • 對群體作區別分析時研究者常會尋找許多有區別能力的變項,但這些變項的選取有時是以主觀認定他們有區別能力,有時會選取解釋能力重疊的變項,因此必須經過篩選,將沒有區別能力或與其他變項有共線性(解釋重疊)的變項刪除。 • 最常用來篩選區別變項的方式就是逐步區別分析,逐步區別分析事實上與逐步迴歸分析相同,也分成向前選取(Forward stepwise)與向後選取(Backward stepwise)兩種。利用逐步區別分析找出有區別能力的變項後,再用這些有區別能力的變項做線性(或典型)區別。
向前選取法是以 “Step-by-step”方式,將最有區別能力的變項選入,也就是在每一步驟將評估選取最有區別能力的變項進入模式內,然後再進行下一步驟,選取剩下的變項中最有區別能力者,如此依序進行。 • 向後選取法,開始時將所有變項都選入模式內,接著第一步驟將最沒有區別能力的變項刪除,再依序將沒有區別能力(其偏 F值小於門檻)的變項一一去除。
逐步程序是以指定的Fin值與Fout值做為門檻,以便決定何時停止選取,對一變數的偏F值是區別群體間的顯著性指標,此Fin值與Fout值和逐步迴歸的意義相同。逐步程序是以指定的Fin值與Fout值做為門檻,以便決定何時停止選取,對一變數的偏F值是區別群體間的顯著性指標,此Fin值與Fout值和逐步迴歸的意義相同。 • 向前逐步選取區別分析,在每一步驟當變數的偏F值大於指定的Fin值時就選入變數,否則就停止選取。 • 而向後逐步選取區別分析,在每一步驟當變數的偏F值小於指定的Fout值就去除,否則就停止選取,一般Fin值設定為4.0 ,而Fout值設定為3.99。
IV. 邏輯迴歸分析 • 集群數為二時,可採用邏輯迴歸。