Add further feedback from Bart

This commit is contained in:
Charlotte Van Petegem 2024-01-10 14:43:06 +01:00
parent b510670b45
commit b86f15f011
No known key found for this signature in database
GPG key ID: 019E764B7184435A
2 changed files with 40 additions and 7 deletions

View file

@ -3558,6 +3558,25 @@
file = {/home/charlotte/sync/Zotero/storage/PQRWFWLJ/Vihavainen et al. - 2013 - Using students' programming behavior to predict su.pdf}
}
@article{vittoriniAIBasedSystemFormative2021,
title = {An {{AI-Based System}} for {{Formative}} and {{Summative Assessment}} in {{Data Science Courses}}},
author = {Vittorini, Pierpaolo and Menini, Stefano and Tonelli, Sara},
year = {2021},
month = jun,
journal = {International Journal of Artificial Intelligence in Education},
volume = {31},
number = {2},
pages = {159--185},
issn = {1560-4306},
doi = {10.1007/s40593-020-00230-2},
url = {https://doi.org/10.1007/s40593-020-00230-2},
urldate = {2024-01-10},
abstract = {Massive open online courses (MOOCs) provide hundreds of students with teaching materials, assessment tools, and collaborative instruments. The assessment activity, in particular, is demanding in terms of both time and effort; thus, the use of artificial intelligence can be useful to address and reduce the time and effort required. This paper reports on a system and related experiments finalised to improve both the performance and quality of formative and summative assessments in specific data science courses. The system is developed to automatically grade assignments composed of R commands commented with short sentences written in natural language. In our opinion, the use of the system can (i) shorten the correction times and reduce the possibility of errors and (ii) support the students while solving the exercises assigned during the course through automated feedback. To investigate these aims, an ad-hoc experiment was conducted in three courses containing the specific topic of statistical analysis of health data. Our evaluation demonstrated that automated grading has an acceptable correlation with human grading. Furthermore, the students who used the tool did not report usability issues, and those that used it for more than half of the exercises obtained (on average) higher grades in the exam. Finally, the use of the system reduced the correction time and assisted the professor in identifying correction errors.},
langid = {english},
keywords = {Assessment,Automated grading,Embeddings,ML,NLP,SVM},
file = {/home/charlotte/sync/Zotero/storage/MCE4XEVP/Vittorini et al. - 2021 - An AI-Based System for Formative and Summative Ass.pdf;/home/charlotte/sync/Zotero/storage/YR42PAT9/vittorini2020.pdf.pdf}
}
@article{vonderwellActiveLearningPreservice2005,
title = {Active {{Learning}} and {{Preservice Teachers}}' {{Experiences}} in an {{Online Course}}: {{A Case Study}}},
shorttitle = {Active {{Learning}} and {{Preservice Teachers}}' {{Experiences}} in an {{Online Course}}},

View file

@ -46,13 +46,27 @@ Because of this the `\frontmatter` statement needs to be part of the `org-latex-
:CREATED: [2024-01-09 Tue 17:28]
:END:
Bij implementation begint het met een zin over ruby on rails en web components, maar dan gaat het plots enkel over het judgen. Dat judgen is zeker belangrijk, maar ik zou daar een aparte sectie over maken
het stukje over de algemene architectuur is nogal beknopt. Misschien kan je een schema van onze servers toevoegen en dat als kapstok gebruiken om er wat meer over te vertellen?
Over development: hier mis ik nog iets over dependabot, een paar statistieken (aantal commits, personen, releases). Hoe we nu release notes doen, dat we onze PR's goed documenteren met screenshots etc evt voorbeeld toevoegen
aha, het stuk over deployment is wat ik misschien eerst verwachtte, maar dat gaat niet specifiek over het deploy proces zelf
ik zou het deployen zelf (automatisch, via github action, capistrano) dan nog toevoegen aan development
papyros user feedback: kunnen we daar concreter zijn? Gestelde vragen toevoegen (evt als appendix?) concrete antwoorden? Aan hoeveel mensen hebben we feedback gevraagd, etc
algemeen: moeten er geen links naar github worden toegevoegd bij de relevante secties?
Dodona zelf:
- Beginnen met figuur met alle servers op en dat als kapstok gebruiken
- Betere/meer sectietitels
- Dingen die ontbreken: dependabot, release notes, naos, mestra, deployen via action + capistrano, statistieken over aantal commits, contributors, releases
- Bij development staat nu dat we code review doen, maar ik zou hier ook schrijven dat we onze PRs als documentatie gebruiken en we een uitgebreide beschrijving en screenshots toevoegen
- Dit mag van mij gerust een stuk technischer
Pyodide:
- papyros user feedback: kunnen we daar concreter zijn? Gestelde vragen toevoegen (evt als appendix?) concrete antwoorden? Aan hoeveel mensen hebben we feedback gevraagd, etc
TESTed
- Eerste zin is daar raar “one of the goals was to allow the method I developed to work over many programming languages”. Welke method?
- Ik begrijp dat je dit niet in detail wil toevoegen als deel van je thesis, maar nu blijft het allemaal een beetje abstract. Ik denk dat een externe hier niet veel van zal begrijpen. Misschien dat een running voorbeeld toevoegen kan helpen?
algemeen:
- moeten er geen links naar github worden toegevoegd bij de relevante secties?
- Captions bij figuren in een kleinere font size
*** TODO Write [[#chap:intro]]
:PROPERTIES: