search

Advanced Search

Ariadne Pfad:

Inhalt

details

Original Title
Effects of different response formats in measuring educational research literacy
Parallel titleEffekte verschiedener Antwortformate in der Erfassung bildungswissenschaftlicher Forschungskompetenz
Authors
SourceJournal for educational research online 9 (2017) 2, S. 137-155 ZDB
Document  (389 KB)
License of the document In copyright
Keywords (German)
sub-discipline
Document typeArticle (journal)
ISSN1866-6671; 18666671
LanguageEnglish
Year of creation
review statusPeer-Reviewed
Abstract (English):The use of appropriate response formats in competency testing has been a topic of interest for the last few decades. Especially the comparison of multiple-choice items with free-response items has been widely examined. The present study examines objective and subjective difficulty of those two response formats and furthermore addresses the question of construct dimensionality based on response formats. Test items measuring Educational Research Literacy were presented to 600 university students in Educational Sciences. To eliminate possible distortions from memory effects, stem-equivalent items of both formats were distributed among two test booklets and linked together with anchoring items. Comparing the response formats did not reveal a clear result concerning objective difficulty. Free-response items were in most cases subjectively rated to be more difficult than multiple-choice items. Objective item difficulty was in most cases not related to subjectively rated difficulty, independent of response format. Model comparisons suggested no differing dimensionality when a method factor based on response format was defined additionally. The results show that in the domain of Educational Research Literacy, there is no distinct advantage of one format over the other in terms of difficulty. This and the established unidimensionality suggest that both formats may be used in competency tests in this content domain. (DIPF/Orig.)
Abstract (German):Der Einsatz angemessener Antwortformate in der Kompetenzmessung ist ein viel diskutiertes Thema pädagogisch-psychologischer Forschung. Dabei steht vor allem der Vergleich offener und geschlossener Antwortformate im Vordergrund. Die vorliegende Studie vergleicht die objektive und subjektive Schwierigkeit dieser beiden Formate und prüft die sich daraus ergebende Dimensionalität des Konstrukts Bildungswissenschaftliche Forschungskompetenz. 600 Studierenden der Bildungswissenschaften wurden Testitems in geschlossenem und offenem Antwortformat vorgelegt. Um Verzerrungen durch Erinnerungseffekte auszuschließen, wurde inhaltsgleiche Items in beiden Formaten auf zwei Testhefte verteilt und mit Ankeritems untereinander verlinkt. Im Vergleich zeigte sich kein klarer Vorteil eines Formats in der objektiven Schwierigkeit; subjektiv wurden jedoch Items mit freien Antworten eher schwieriger eingeschätzt. Für die meisten Items zeigten sich keine Zusammenhänge zwischen objektiver und subjektiv eingeschätzter Schwierigkeit. Modellvergleiche auf latenter Ebene deuteten nicht auf eine spezifische Dimensionalität in Abhängigkeit von den Antwortformaten hin. Die Ergebnisse sprechen gegen einen klaren Vorteil eines bestimmten Antwortformats im Bereich der Bildungswissenschaftlichen Forschungskompetenz. Zusammen mit der gefunden Eindimensionalität des Konstrukts legen die Ergebnisse nahe, dass in dieser Domäne beide Formate in Tests eingesetzt werden können. (DIPF/Orig.)
other articles of this journal
Statistics
Checksums
Date of publication13.10.2017
CitationSchladitz, Sandra; Groß Ophoff, Jana; Wirtz, Markus: Effects of different response formats in measuring educational research literacy - In: Journal for educational research online 9 (2017) 2, S. 137-155 - URN: urn:nbn:de:0111-pedocs-149003 - DOI: 10.25656/01:14900
export files

share content at social platforms