Forschungsthemen
Ich forsche daran, wie wir Hochleistungsrechnen zugänglicher, effizienter und nachhaltiger gestalten können. Moderne wissenschaftliche Anwendungen benötigen enorme Rechenleistung – gleichzeitig sollen sie für Forschende aus vielen Disziplinen intuitiv nutzbar bleiben. Ein besonderer Schwerpunkt meiner Arbeit liegt daher auf Python für HPC: Ich untersuche, wie sich Python-Workflows so optimieren lassen, dass sie auf GPUs und verteilten Systemen ähnlich performant laufen wie klassischer C/CUDA-Code. Dazu entwickle und evaluiere ich neue Methoden für Multi-GPU-Kommunikation, Speichermanagement und die Analyse typischer Performance-Fallen in Python. Im Rahmen dieser Arbeiten beschäftige ich mich zudem mit der Weiterentwicklung der Lehre im parallelen Programmieren, etwa durch interaktive Analysewerkzeuge, moderne GPU-Beispiele und didaktische Konzepte, die Studierende früh an HPC heranführen.
Ein weiterer Schwerpunkt meiner Forschung liegt auf RISC-V und der Frage, wie offene Prozessorarchitekturen die Zukunft des wissenschaftlichen Rechnens prägen können. Besonders interessiert mich die Vektorerweiterung (RISC-V V), die flexible und skalierbare SIMD-Berechnungen ermöglicht. Ich erforsche, wie gut sich wissenschaftliche und HPC-Workloads – von linearen Algebra-Kernen bis hin zu komplexen Simulationen – auf dieser offenen Architektur abbilden lassen und welche Optimierungsstrategien notwendig sind, um RISC-V im HPC-Bereich konkurrenzfähig zu etablieren. Ziel ist es, zu verstehen, wie eine transparente und frei implementierbare Architektur neue Hardware- und Softwareökosysteme voranbringen kann.
Darüber hinaus beschäftige ich mich mit leichtgewichtigen Virtualisierungs- und Container-Technologien, insbesondere im Kontext sicherer Ausführungsumgebungen und eingebetteter Hardware. Mich interessiert, wie sichere Container (Secure Containers) und isolierte Softwareumgebungen effizient auf ressourcenbeschränkten Plattformen eingesetzt werden können – etwa für Edge-Computing, sicherheitskritische Anwendungen oder ML-Inferenz auf Embedded-Systemen.
Ein weiterer ergänzender Bereich meiner Arbeit befasst sich mit der effizienten Nutzung eingebetteter Systeme, insbesondere mit der Frage, wie Machine-Learning-Inferenz auf ressourcenarmen Mikrocontrollern performant und energieeffizient umgesetzt werden kann. Dies umfasst algorithmische Optimierungen, Speichermanagement auf Low-Power-Hardware sowie die Integration sicherer Ausführungsumgebungen auf Embedded-Plattformen.
Ein wesentlicher Teil meiner Forschung findet zudem im Kontext des europäischen EBRAINS-Infrastrukturprojekts statt. Dort arbeite ich daran, HPC, Cloud und datenintensive Neurowissenschaften zu verbinden. Mein Ziel ist es, leistungsfähige, robuste und nutzerfreundliche Forschungsinfrastrukturen zu entwickeln, die Wissenschaftlerinnen und Wissenschaftlern helfen, ihre Ideen schneller und nachhaltiger umzusetzen – in der Hirnforschung ebenso wie in Physik, Informatik und darüber hinaus.