Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Tagung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Sitzungsübersicht
Session
DeLFI5: Assessment & Feedback
Zeit:
Dienstag, 13.09.2016:
11:00 - 12:30

Chair der Sitzung: Joerg Haake
Ort: Hörsaal H02
150 Sitzplätze

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Elektronische Abstimmungssysteme in der Hochschullehre – Empirische Untersuchung zu ersten Erfahrungen mit dem Audience Response System eduVote

Michael Eichhorn

Goethe-Universität Frankfurt, Deutschland

Der Einsatz von Audience Response Systemen ermöglicht Hochschullehrenden die Interaktion mit Studierenden in Lehrveranstaltungen mit vielen Teilnehmenden. Seit einem Jahr steht allen Dozierenden und Studierenden der Goethe-Universität das softwarebasierte Audience Response System eduVote zur Verfügung. Im Rahmen einer empirischen Studie wurden erste Erfahrungen der Lehrenden mit dem System untersucht. Im Blick standen dabei die Erwartungen der Nutzerinnen und Nutzer sowie angewandte Einsatzszenarien unter Berücksichtigung unterschiedlicher Fachkulturen in Natur- bzw. Geistes- und Sozialwissenschaften. Die Ergebnisse der Untersuchung stellt dieser Beitrag dar.


Evaluation automatisierter Ansätze für die Bewertung von Modellierungsaufgaben

Michael Fellmann1, Peter Fettke2, Constantin Houy2, Peter Loos2, Andreas Oberweis3, Andreas Schoknecht3, Michael Striewe4, Tom Thaler2, Meike Ullrich3

1Universität Rostock, Deutschland; 2Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Deutschland; 3Karlsruher Institut für Technologie (KIT), Deutschland; 4Universität Duisburg-Essen, Deutschland

E-Assessments sind immer weiter verbreitet in der Hochschullehre. In einigen Einsatzgebieten birgt die Erstellung von automatisierten Ansätzen für die Bewertung besondere Herausforderungen, so auch bei klassischen Modellierungsaufgaben. In diesem Beitrag wird ein Schema für die Bewertung von Modellen in Form von Ereignisgesteuerten Prozessketten entworfen und zwei automatisierte Bewertungsansätze einer manuellen Bewertung durch Lehrende gegenübergestellt. Als Ergebnis lassen sich vielversprechende Übereinstimmungen feststellen, die Potenziale für die Anwendung automatisierter Bewertungsverfahren von Modellierungsaufgaben aufzeigen.


Bewertungsaspekte und Tests in Java-Programmieraufgaben für Graja im ProFormA-Aufgabenformat

Robert Garmann, Peter Fricke, Oliver J. Bott

Hochschule Hannover, Deutschland

Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte "Tests" sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.



 
Impressum · Kontaktadresse:
Veranstaltung: DeLFI 2016 & HDI 2016
Conference Software - ConfTool Pro 2.6.106+TC
© 2001 - 2017 by H. Weinreich, Hamburg, Germany