Detailanzeige
Aufsatz (Zeitschrift) zugänglich unter
URN: urn:nbn:de:0111-pedocs-146050
DOI: 10.25656/01:14605; 10.1026/0012-1924/a000113
URN: urn:nbn:de:0111-pedocs-146050
DOI: 10.25656/01:14605; 10.1026/0012-1924/a000113
Titel |
Diagnostik von ICT-Literacy. Multiple-Choice- vs. simulationsbasierte Aufgaben |
---|---|
Autoren | Goldhammer, Frank ; Kröhne, Ulf ; Keßel, Yvonne; Senkbeil, Martin; Ihme, Jan Marten |
Originalveröffentlichung | Diagnostica 60 (2014) 1, S. 10-21 |
Dokument | Volltext (588 KB) (formal und inhaltlich überarbeitete Version) |
Lizenz des Dokumentes | |
Schlagwörter (Deutsch) | Aufgabe; Deutschland; Diagnostik; Informations- und Kommunikationstechnologie; Informationskompetenz; Kompetenz; Multiple-Choice-Verfahren; Psychometrie; Schuljahr 09; Simulation; Test |
Teildisziplin | Empirische Bildungsforschung |
Dokumentart | Aufsatz (Zeitschrift) |
Sprache | Deutsch |
Erscheinungsjahr | 2014 |
Begutachtungsstatus | Peer-Review |
Abstract (Deutsch): | ICT-Literacy legt eine performanzbasierte Erfassung nahe, also mithilfe von Testaufgaben, die interaktive (simulierte) Computerumgebungen präsentieren und eine Reaktion mittels Maus und/oder Tastatur erfordern. Dennoch kommen häufig Verfahren wie Selbstbeurteilungen oder papierbasierte Leistungstests zum Einsatz. Ziel der vorliegenden Studie war es, die psychometrischen Eigenschaften simulationsbasierter (SIM) Aufgaben mit den Eigenschaften inhaltlich paralleler Multiple-Choice (MC)-Aufgaben zu vergleichen, bei denen Screenshots als Stimulus verwendet werden. Die MC-Aufgaben, die im Rahmen der National Educational Panel Study (NEPS) entwickelt wurden, erfassen die Fähigkeit, digitale Informationen auszuwählen und abzurufen sowie grundlegende Operationen durchzuführen (Access). In einem Zufallsgruppendesign bearbeiteten 405 Jugendliche der Klassenstufe 9 die computerbasierten Access-Testitems entweder als MC-Aufgabe oder als SIM-Aufgabe sowie den simulationsbasierten Basic Computer Skills (BCS)-Test. Die Ergebnisse zeigen, dass sich die meisten MC-Aufgaben und SIM-Aufgaben hinsichtlich Schwierigkeit und Ladung unterscheiden. Übereinstimmende konvergente Validität wird durch vergleichbar hohe Korrelationen der beiden Testformen mit BCS angezeigt. |
Abstract (Englisch): | ICT literacy suggests a performance-based assessment by means of tasks presenting interactive (simulated) computer environments and requiring responses by means of mouse and/or keyboard. However, assessment procedures like self-ratings or paper-based performance measures are still commonly used. The present study compares the psychometric properties of simulation-based (SIM) tasks with parallel multiple-choice (MC) tasks that make use of screenshots of software applications. The MC tasks, developed for the National Educational Panel Study (NEPS), reflect the skill to select and retrieve digital information and to perform basic operations (access). In a random groups design, 405 grade 9 students completed the computer-based access items as MC tasks or as SIM tasks as well as the simulation-based Basic Computer Skills (BCS) test. Results show that the majority of MC tasks and SIM tasks differ in difficulty and loading. Consistent convergent validity is indicated by comparably high correlations of the two test forms with BCS. |
weitere Beiträge dieser Zeitschrift | Diagnostica Jahr: 2014 |
Statistik | Anzahl der Zugriffe auf dieses Dokument |
Prüfsummen | Prüfsummenvergleich als Unversehrtheitsnachweis |
Eintrag erfolgte am | 28.07.2017 |
Quellenangabe | Goldhammer, Frank; Kröhne, Ulf; Keßel, Yvonne; Senkbeil, Martin; Ihme, Jan Marten: Diagnostik von ICT-Literacy. Multiple-Choice- vs. simulationsbasierte Aufgaben - In: Diagnostica 60 (2014) 1, S. 10-21 - URN: urn:nbn:de:0111-pedocs-146050 - DOI: 10.25656/01:14605; 10.1026/0012-1924/a000113 |