details
Article (journal) accessible via
URN: urn:nbn:de:0111-pedocs-146050
DOI: 10.25656/01:14605; 10.1026/0012-1924/a000113
URN: urn:nbn:de:0111-pedocs-146050
DOI: 10.25656/01:14605; 10.1026/0012-1924/a000113
Title |
Diagnostik von ICT-Literacy. Multiple-Choice- vs. simulationsbasierte Aufgaben |
---|---|
Authors | Goldhammer, Frank ; Kröhne, Ulf ; Keßel, Yvonne; Senkbeil, Martin; Ihme, Jan Marten |
Source | Diagnostica 60 (2014) 1, S. 10-21 |
Document | full text (588 KB) (formally and content revised edition) |
License of the document | |
Keywords (German) | Aufgabe; Deutschland; Diagnostik; Informations- und Kommunikationstechnologie; Informationskompetenz; Kompetenz; Multiple-Choice-Verfahren; Psychometrie; Schuljahr 09; Simulation; Test |
sub-discipline | Empirical Educational Research |
Document type | Article (journal) |
Language | German |
Year of creation | 2014 |
review status | Peer-Reviewed |
Abstract (German): | ICT-Literacy legt eine performanzbasierte Erfassung nahe, also mithilfe von Testaufgaben, die interaktive (simulierte) Computerumgebungen präsentieren und eine Reaktion mittels Maus und/oder Tastatur erfordern. Dennoch kommen häufig Verfahren wie Selbstbeurteilungen oder papierbasierte Leistungstests zum Einsatz. Ziel der vorliegenden Studie war es, die psychometrischen Eigenschaften simulationsbasierter (SIM) Aufgaben mit den Eigenschaften inhaltlich paralleler Multiple-Choice (MC)-Aufgaben zu vergleichen, bei denen Screenshots als Stimulus verwendet werden. Die MC-Aufgaben, die im Rahmen der National Educational Panel Study (NEPS) entwickelt wurden, erfassen die Fähigkeit, digitale Informationen auszuwählen und abzurufen sowie grundlegende Operationen durchzuführen (Access). In einem Zufallsgruppendesign bearbeiteten 405 Jugendliche der Klassenstufe 9 die computerbasierten Access-Testitems entweder als MC-Aufgabe oder als SIM-Aufgabe sowie den simulationsbasierten Basic Computer Skills (BCS)-Test. Die Ergebnisse zeigen, dass sich die meisten MC-Aufgaben und SIM-Aufgaben hinsichtlich Schwierigkeit und Ladung unterscheiden. Übereinstimmende konvergente Validität wird durch vergleichbar hohe Korrelationen der beiden Testformen mit BCS angezeigt. |
Abstract (English): | ICT literacy suggests a performance-based assessment by means of tasks presenting interactive (simulated) computer environments and requiring responses by means of mouse and/or keyboard. However, assessment procedures like self-ratings or paper-based performance measures are still commonly used. The present study compares the psychometric properties of simulation-based (SIM) tasks with parallel multiple-choice (MC) tasks that make use of screenshots of software applications. The MC tasks, developed for the National Educational Panel Study (NEPS), reflect the skill to select and retrieve digital information and to perform basic operations (access). In a random groups design, 405 grade 9 students completed the computer-based access items as MC tasks or as SIM tasks as well as the simulation-based Basic Computer Skills (BCS) test. Results show that the majority of MC tasks and SIM tasks differ in difficulty and loading. Consistent convergent validity is indicated by comparably high correlations of the two test forms with BCS. |
other articles of this journal | Diagnostica Jahr: 2014 |
Statistics | Number of document requests |
Checksums | checksum comparison as proof of integrity |
Date of publication | 28.07.2017 |
Citation | Goldhammer, Frank; Kröhne, Ulf; Keßel, Yvonne; Senkbeil, Martin; Ihme, Jan Marten: Diagnostik von ICT-Literacy. Multiple-Choice- vs. simulationsbasierte Aufgaben - In: Diagnostica 60 (2014) 1, S. 10-21 - URN: urn:nbn:de:0111-pedocs-146050 - DOI: 10.25656/01:14605; 10.1026/0012-1924/a000113 |