Sven Hilbert, Universität Regensburg
Die Gültigkeit vieler Modelle, welche mit klassischen statistischen Verfahren, in der Regel basierend auf dem Allgemeinen oder Verallgemeinerten Linearen Modell, kann in Zweifel gezogen werden. Indizien hierzu liefert die ‚Replikationskrise‘ der empirischen Wissenschaften, welche die Forschung hart getroffen hat. Die Gründe hierfür sind vielfältig, teilweise direkt mit der Philosophie klassischer statistischer Modelle und teilweise mit einer sich rapide ändernden Datenlage verwoben. Im Vortrag wird ein Überblick der Problematik anhand von Beispielen mit Konsequenzen und Lösungsstrategien gegeben.
Moritz Heene, LMU München
Jörg Heine, TU München
Die Anwendung des Raschmodells ist, insbesondere seit seiner Anwendung in Large-Scale-Assessments wie PISA, in der psychologisch-pädagogischen Forschung weitverbreitet. Seine Bevorzugung gegenüber Item-Response-Modellen wie dem Birnbaum-Modell wird dabei oft mit Verweis auf die wünschenswerten Invarianzeigenschaften begründet, die aus der Gleichheit der Steigungen der Item-Response-Funktion (ICC) folgt. In wieweit die Gleichheit der ICCs in empirischen Daten gegeben ist und damit die wünschenswerten Messeigenschaften des Rasch-Modells überhaupt gelten, wird in der Praxis weitestgehend über Meansquare-Itemfit-Statistiken geprüft.
In einer Simulationsstudie wurde der Frage nachgegangen, in wieweit die Meansquare-Itemfit-Statistiken statistisch verlässlich Modellverletzungen in Form von ICCs mit unterschiedlichen Steigungen im Sinne des Birnbaummodells erkennen. Implikationen aus den Ergebnissen für die Praxis werden aufgezeigt und diskutiert.