通常δ的設定介於0.1-0.3, 0.2是最常看到的做法
2. LR的特性
LR在1PL, 2PL下是單調遞增的,但在3PL下不是,
非單調遞增的特性,鮮少有人研究。
3. GLR的用法
若在在LR的分子或分母代入maximum likelihood ,此測驗終止條件稱為GLR,GLR的用法如 下:
(1)當 估計出來的theta hat >= θo+δ ; LR的分子代入ML,分母代 L(θo-δ) ,此時的LR會>1 , 傾向通過
(2)當 估計出來的theta hat <= θo -δ ; LR的分母代入ML,分子代 L(θo+δ) ,此時的LR會<1,
傾向不通過
因此,可看出分子或分母代入ML的時機, 是為了使LR能夠更快速的大於或小於upper bound 或 lower bound,達到分類的目的
(3)當 θo+δ >theta hat > θo -δ ; LR的算法比照SPRT
4. CCT應用在CAT上,LR, upper bound 跟lower bound 是不是都要取log值?
常見的作法有兩種,但其實是一樣的事, 只有全加或全不加log的差別
第一種: LR=L(θo+δ)/L(θo-δ) ; upper bound :A=(1-β)/ α lower bound: B= β/(1-α)
第二種: LR=log( L(θo+δ)/L(θo-δ) ); upper bound : log A lower bound: log B
需注意的只有: 當測驗長度達到上限需強制判定類別時,設定臨界值的方式略有差異
5. 分類測驗的目的是分類,當施測的題數達到預設的測驗長度上限, 且LR仍未大於或小於
upper or lower bound時,分類測驗系統仍必須強制判定類別
強制判定類別的情況出現的多寡可能跟下列因素有關: 受試者的能力分配與cut point的相
對位置、試題參數、δ的設定
一般而言,多數受試者仍在正常程序下被判斷出類別, 僅少部分受試者需強制判斷類別
No comments:
Post a Comment