<html>
Dear Tom:<br><br>
Thank you for your question. The literature is contradictory, so how
about this ...<br><br>
The threshold distances can exaggerate differences between the item
structures. Rasch estimates are fairly robust against threshold
variation. So, instead, compare the model ICCs (expected score ogives).
See the first Figure on
<a href="http://www.rasch.org/rmt/rmt151j.htm" eudora="autourl">www.rasch.org/rmt/rmt151j.htm<br><br>
</a>If the differences are large enough to cause you to come to different
conclusions about the responses, then the rating scales are different and
the partial credit model is indicated. But check to make sure that there
are at least 10 responses in each category per item. Small category
frequencies can lead to idiosyncratic results.<br><br>
Mike L.<br><br>
At 5/16/2006, you wrote:<br>
<blockquote type=cite class=cite cite><font face="Verdana" size=2 color="#000080">I
am analyzing data from a personality instrument that employs 5-option
Likert-style items.&nbsp; Inspection of the results shows that the items
vary greatly in terms of how well-spaced and well-ordered their
thresholds are.&nbsp; Should I be using a partial credit model, because
empirically I know the thresholds are different for each item?&nbsp; Or
should I use a rating scale model, because the items were created with
the intention of producing consistent thresholds?</font></blockquote>
<x-sigsep><p></x-sigsep>
Mike Linacre<br>
Editor, Rasch Measurement Transactions<br>
rmt@rasch.org
<a href="http://www.rasch.org/rmt/" eudora="autourl"><font color="#0000FF"><u>www.rasch.org/rmt/</a></u></font>
Latest RMT: 19:4 Spring<br><br>
<br>
</html>