Arbeitsgebiete
Promotionsprojekt:
"Combining the benefits of distributional and structured semantic representations to address domain-specific NLP Problems."
Large Language Models (LLMs) basierend auf künstlichen neuronalen Netzen dominieren die aktuelle Forschung im Bereich Computerlinguistik bzw. Natural Language Processing (NLP). Diese LLMs codieren distributionelle semantische Repräsentationen, die aus sehr großen Datensätzen abgeleitet werden. Dabei werden die Grenzen aktueller Hardware, wie GPU und TPU Chips, die für das Training neuronaler Netze optimiert sind, ausgereizt. Für einige Probleme in speziellen Anwendungsdomänen kann die Verwendung dieser LLMs allerdings schwierig sein, wenn es an Trainingsdaten mangelt oder besondere Transparenz und Nachvollziehbarkeit gefordert ist. Mein Hauptinteresse liegt darin zu erforschen, wie klassische semantische Repräsentation wie z.B. Wissensgraphen (Knowledge Graphs) in unternehmensspezifischen Anwendungsdomänen mit diesen LLMs kombiniert werden können, um diese Schwierigkeiten zu lösen.
Lebenslauf
Seit 03/2023
Doktorand am Lehrstuhl für Informationswissenschaft
Seit 2016
Software Engineer im Bereich Suchmaschinen und Information Retrieval (seit 2019 selbstständig)
2012 - 2016
Masterstudium Robotics, Cognition, Intelligence an der Technischen Universität München
2007 - 2012
Bachelorstudium Medieninformatik an der Ludwig-Maximilians-Universität München