<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2//EN">
<HTML>
<HEAD>
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=iso-8859-1">
<META NAME="Generator" CONTENT="MS Exchange Server version 6.5.7652.24">
<TITLE>RE: [Rasch] Help with equating partial credit items in pre - post test</TITLE>
</HEAD>
<BODY>
<!-- Converted from text/plain format -->

<P><FONT SIZE=2>Mike<BR>
<BR>
I've done this several times when the N is too small.&nbsp; My question regards local independence.&nbsp; When I've done this in the past, I've (we've) assessed the items for overfit and exceptionally high point-biserials.&nbsp; It isn't perfect, but it can give us an idea as to whether or not the requirement of local independence is met, even for the calculation of item difficulties.&nbsp; Some journals are requiring this to be done.&nbsp; So ...<BR>
<BR>
Is this really important in the estimation process for the purpose of equating?&nbsp; (local independence)<BR>
<BR>
Overfitting items ... does the fit help us with detecting them?&nbsp; What happens if you find them?<BR>
<BR>
Thanks!<BR>
<BR>
Gregory<BR>
<BR>
Gregory E. Stone, Ph.D., M.A.<BR>
<BR>
Associate Professor of Research and Measurement<BR>
The Judith Herb College of Education<BR>
The University of Toledo, Mailstop #921<BR>
Toledo, OH 43606&nbsp;&nbsp; 419-530-7224<BR>
<BR>
Editorial Board, Journal of Applied Measurement&nbsp;&nbsp;&nbsp;&nbsp; www.jampress.org<BR>
<BR>
Board of Directors, American Board for Certification of Teacher Excellence&nbsp;&nbsp;&nbsp;&nbsp; www.abcte.org<BR>
<BR>
For information about the Research and Measurement Programs at The University of Toledo and careers in psychometrics, statistics and evaluation, email gregory.stone@utoledo.edu.<BR>
<BR>
<BR>
<BR>
<BR>
<BR>
<BR>
-----Original Message-----<BR>
From: rasch-bounces@acer.edu.au on behalf of Mike Linacre (RMT)<BR>
Sent: Sat 5/31/2008 5:07 PM<BR>
To: rasch@acer.edu.au<BR>
Subject: [Rasch] Help with equating partial credit items in pre - post test<BR>
<BR>
Thank you for your question, Andres.<BR>
<BR>
Ben Wright at www.rasch.org/rmt/rmt101f.htm recommends using pre- and post- test data together to estimate the rating scale structure anchors. You can then anchor the rating scale structures, and use the post-test data to estimate the item anchors.<BR>
<BR>
Rasch measures are remarkably robust against disordered thresholds (low frequency categories) so don't collapse categories if they are merely sampling effects (not due to structural flaws in the rating scale).<BR>
<BR>
Cordially,<BR>
Mike L.<BR>
<BR>
At 5/31/2008, you wrote:<BR>
<BR>
<BR>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Which could be the best way to put pre test results on the post test frame of reference?<BR>
<BR>
Mike Linacre<BR>
Editor, Rasch Measurement Transactions<BR>
rmt@rasch.org www.rasch.org/rmt/ &lt;<A HREF="http://www.rasch.org/rmt/">http://www.rasch.org/rmt/</A>&gt;&nbsp; Latest RMT:&nbsp; 21:4 Spring 2008<BR>
<BR>
</FONT>
</P>

</BODY>
</HTML>