Educational Natural Language Processing "EduNLP"

Die Nachwuchsgruppe ist Teil des Forschungszentrums CATALPA .

Freitextantworten automatisch bewerten und automatisierte Rückmeldungen für Lernende und Lehrende erstellen - damit dies in Zukunft zuverlässig funktionieren kann, untersucht unsere Nachwuchsgruppe wie Sprachverarbeitungsmethoden hier genutzt werden können.


Ziele und Forschungsfragen

Eine Kern-Forschungsfrage ist, wie Lernenden automatisiert formatives Feedback zu Essays gegeben werden kann. Dabei können verschiedene Aspekte eines Essays zum Tragen kommen, wie zum Beispiel syntaktische und lexikalische Varianz, Struktur und Aufbau, Kohärenz, inhaltliche Passung zur Aufgabenstellung oder korrekte Verwendung von figurativer Sprache.

Aus dieser Fragestellung ergeben sich eine Reihe von nachgelagerten Forschungsfragen:

  • Wie ist die Performanz von bestehenden automatischen Scoringverfahren zu den gewählten Phänomenen und wie können bestehende Verfahren auf einen konkreten Anwendungsfall, also beispielsweise eine konkrete Schreibaufgabe, adaptiert werden?

  • Wie sieht aus Sicht der Lehrenden hilfreiches formatives Feedback aus und wie können Datensätze mit solchen Feebacknachrichten erhoben werden?

  • Wie kann diese Art von Feedback automatisiert werden, zum Beispiel dadurch, dass ein Entscheidungsbaum gelernt wird, der die im konkreten Fall passende vom Menschen formulierte Feedbacknachricht auswählt, oder dadurch, dass eine Feedbacknachricht durch Verfahren der Natural Language Generation automatisch generiert wird?

  • Wie beurteilen Lernende solches Feedback im Hinblick auf Verständlichkeit und Natürlichkeit? Welche Auswirkungen hat solches Feedback auf die Lernenden im Hinblick auf den Lernerfolg?


Früheres Projekt der Nachwuchsgruppe

Explaining AI Predictions of Semantic Relationships (gefördert durch das Land NRW im Rahmen des Förderprogramms „KI-Starter“, zur Pressemitteilung)

  • Prof. Dr. Andrea Horbach

    • Yuning Ding (Doktorandin)
    • Viet Phe Nguyen (studentische Hilfskraft)
    • Finn Brodmann (studentische Hilfskraft)
    • Joey Pehlke (studentische Hilfskraft)
  • Dezember 2021 – November 2024

  • 2023

    Zeitschriftenartikel

    • Zesch, T., Horbach, A., & Zehner, F. (2023). To Score or Not to Score: Factors Influencing Performance and Feasibility of Automatic Content Scoring of Text Responses. Educational Measurement: Issues and Practice, 42(1), 44–58. https://doi.org/10.1111/emip.12544

    Konferenzbeiträge

    • Bexte, M., Horbach, A., & Zesch, T. (2023). Similarity-Based Content Scoring - A more Classroom-Suitable Alternative to Instance-Based Scoring? Findings of the Association for Computational Linguistics: ACL 2023, 1892–1903. https://aclanthology.org/2023.findings-acl.119
    • Ding, Y., Bexte, M., & Horbach, A. (2023). Score It All Together: A Multi-Task Learning Study on Automatic Scoring of Argumentative Essays. Findings of the Association for Computational Linguistics: ACL 2023, 13052–13063. https://aclanthology.org/2023.findings-acl.825
    • Ding, Y., Trüb, R., Fleckenstein, J., Keller, S., & Horbach, A. (2023). Sequence Tagging in EFL Email Texts as Feedback for Language Learners. Proceedings of the 12th Workshop on NLP for Computer Assisted Language Learning, 53–62.
    • Mousa, A., Laarmann-Quante, R., & Horbach, A. (2023). Manual and Automatic Identification of Similar Arguments in EFL Learner Essays. Proceedings of the 12th Workshop on NLP for Computer Assisted Language Learning, 85–93.

    Herausgeberschaften

    • Kochmar, E., Burstein, J., Horbach, A., Laarmann-Quante, R., Madnani, N., Tack, A., Yaneva, V., Yuan, Z., & Zesch, T. (2023). Proceedings of the 18th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2023).

    2022

    Konferenzbeiträge

    • Bexte, M., Horbach, A., & Zesch, T. (2022). Similarity-Based Content Scoring - How to Make S-BERT Keep Up With BERT. Proceedings of the 17th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2022), 118–123. https://aclanthology.org/2022.bea-1.16
    • Bexte, M., Laarmann-Quante, R., Horbach, A., & Zesch, T. (2022). LeSpell - A Multi-Lingual Benchmark Corpus of Spelling Errors to Develop Spellchecking Methods for Learner Language. Proceedings of the Language Resources and Evaluation Conference, 697–706. https://aclanthology.org/2022.lrec-1.73
    • Ding, Y., Bexte, M., & Horbach, A. (2022). Don’t Drop the Topic - The Role of the Prompt in Argument Identification in Student Writing. Proceedings of the 17th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2022), 124–133. https://aclanthology.org/2022.bea-1.17
    • Horbach, A., Laarmann-Quante, R., Liebenow, L., Jansen, T., Keller, S., Meyer, J., Zesch, T., & Fleckenstein, J. (2022). Bringing Automatic Scoring into the Classroom–Measuring the Impact of Automated Analytic Feedback on Student Writing Performance. Swedish Language Technology Conference and NLP4CALL, 72–83. https://ecp.ep.liu.se/index.php/sltc/article/view/580/550
    • Laarmann-Quante, R., Schwarz, L., Horbach, A., & Zesch, T. (2022). ‘Meet me at the ribary’ – Acceptability of spelling variants in free-text answers to listening comprehension prompts. Proceedings of the 17th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2022), 173–182. https://aclanthology.org/2022.bea-1.22

    Herausgeberschaften

    • Kochmar, E., Burstein, J., Horbach, A., Laarmann-Quante, R., Madnani, N., Tack, A., Yaneva, V., Yuan, Z., & Zesch, T. (Hrsg.). (2022). Proceedings of the 17th Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2022). Association for Computational Linguistics. https://aclanthology.org/2022.bea-1.0

    Buchbeiträge

    • Horbach, A. (2022). Werkzeuge für die automatische Sprachanalyse. In M. Beißwenger, L. Lemnitzer, & C. Müller-Spitzer (Hrsg.), Forschen in der Linguistik. Eine Methodeneinführung für das Germanistik-Studium. Wilhelm Fink (UTB).

    2021

    Zeitschriftenartikel

    Konferenzbeiträge

    • Bexte, M., Horbach, A., & Zesch, T. (2021). Implicit Phenomena in Short-answer Scoring Data. Proceedings of the First Workshop on Understanding Implicitand Underspecified Language.
    • Haring, C., Lehmann, R., Horbach, A., & Zesch, T. (2021). C-Test Collector: AProficiency Testing Application to Collect Training Data for C-Tests. Proceedings of the 16th Workshop on Innovative Use of NLP for BuildingEducational Applications, 180–184. https://www.aclweb.org/anthology/2021.bea-1.19

    Herausgeberschaften

    • Burstein, J., Horbach, A., Kochmar, E., Laarmann-Quante, R., Leacock, C., Madnani, N., Pilán, I., Yannakoudakis, H., & Zesch, T. (Hrsg.). (2021). Proceedings of the 16th Workshop on Innovative Use of NLP for BuildingEducational Applications. Association for Computational Linguistics. https://www.aclweb.org/anthology/2021.bea-1.0

    2020

    Zeitschriftenartikel

    Konferenzbeiträge

    • Ding, Y., Horbach, A., Wang, H., Song, X., & Zesch, T. (2020). Chinese ContentScoring: Open-Access Datasets and Features on Different SegmentationLevels. Proceedings of the 1st conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International JointConference on Natural Language Processing(AACL-IJCNLP 2020). https://www.aclweb.org/anthology/2020.aacl-main.37.pdf
    • Ding, Y., Riordan, B., Horbach, A., Cahill, A., & Zesch, T. (2020). Don’t take "nswvtnvakgxpm" for an answer - The surprising vulnerability of automatic content scoring systems to adversarial input. Proceedings of the 28th International Conference on Computational Linguistics(COLING 2020). https://www.aclweb.org/anthology/2020.coling-main.76.pdf
    • Horbach, A., Aldabe, I., Bexte, M., Lacalle, O. de, & Maritxalar, M. (2020). Appropriateness and Pedagogic Usefulness of Reading ComprehensionQuestions. Proceedings of the 12th International Conference on LanguageResources and Evaluation (LREC-2020). https://www.aclweb.org/anthology/2020.lrec-1.217.pdf

    2019

    Zeitschriftenartikel

    2018

    Konferenzbeiträge

    • Horbach, A., & Pinkal, M. (2018). Semi-Supervised Clustering for Short AnswerScoring. LREC. http://www.lrec-conf.org/proceedings/lrec2018/pdf/427.pdf
    • Horbach, A., Stennmanns, S., & Zesch, T. (2018). Cross-lingual Content Scoring. Proceedings of the Thirteenth Workshop on Innovative Use of NLP for Building Educational Applications, 410–419. http://www.aclweb.org/anthology/W18-0550
    • Zesch, T., & Horbach, A. (2018). ESCRITO - An NLP-Enhanced Educational Scoring Toolkit. Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC-2018). http://www.lrec-conf.org/proceedings/lrec2018/pdf/590.pdf
    • Zesch, T., Horbach, A., Goggin, M., & Wrede-Jackes, J. (2018). A flexible online system for curating reduced redundancy language exercises and tests. In P. Taalas, J. Jalkanen, L. Bradley, & S. Thouësny (Hrsg.), Future-proof CALL: language learning as exploration and encounters - short papers from EUROCALL 2018 (S. 319–324). https://doi.org/10.14705/rpnet.2018.26.857

    2017

    Konferenzbeiträge

    • Horbach, A., Ding, Y., & Zesch, T. (2017). The Influence of Spelling Error onContent Scoring Performance. Proceedings of the 4th Workshop on NaturalLanguage Processing Techniques for Educational Applications, 45–53. http://www.aclweb.org/anthology/W17-5908
    • Horbach, A., Scholten-Akoun, D., Ding, Y., & Zesch, T. (2017). Fine-grained essay scoring of a complex writing task for native speakers. Proceedings of the Building Educational Applications Workshop at EMNLP, 357–366. http://aclweb.org/anthology/W17-5040
    • Riordan, B., Horbach, A., Cahill, A., Zesch, T., & Lee, C. M. (2017). Investigating neural architectures for short answer scoring. Proceedings of the BuildingEducational Applications Workshop at EMNLP, 159–168. http://www.aclweb.org/anthology/W17-5017