Uni Wien: Sebastian Schuster baut mit 1,6 Mio. Euro neue Forschungsgruppe Computerlinguistik auf

Künstliche Intelligenz
Bild: zapp2photo / Fotolia

Die Universität Wien wird ab 2025 eine neue Forschungsgruppe im Bereich der Computerlinguistik aufbauen, die durch den privaten, gemeinnützigen Wiener Wissenschafts-, Forschungs- und Technologiefonds (WWTF) mit 1,6 Mio. Euro gefördert wird, wie es in einer Mitteilung der Hochschule heißt.

Ziel des WWTF-Programms „Vienna Research Groups for Young Investigators (VRG)“ sei es, junge, exzellente Wissenschafter aus dem Ausland nach Wien zu holen, um hier an einer Wiener Forschungsstätte ihre erste eigene Gruppe aufzubauen. Die VRG-Leiter erhalten substantielle Mittel (bis zu 1,6 Mio. Euro pro Gruppe) für 6 bis 8 Jahre sowie eine langfristige Karriereperspektive an den Wiener Institutionen.

Sebastian Schuster wechselt von London nach Wien

Sebastian Schuster
Sebastian Schuster – Bild: Schuster

Einer von drei Vienna Research Group Leaders 2023 ist Sebastian Schuster, der derzeit am University College London (UCL) im Bereich Computerlinguistik lehrt und im Rahmen der neuen WWTF-Förderung ab 2025 an die Universität Wien kommen wird. Schuster war Postdoc an der Universität des Saarlandes und der New York University und hat sowohl seinen Master als auch seinen PhD an der Stanford University absolviert.

Die Bewerbung für eine VRG erfolgt jeweils im Tandem mit einem Wissenschafter einer Wiener Forschungsinstitution: Host für das Projekt von Sebastian Schuster ist Benjamin Roth, Professor für Digitale Textwissenschaften an der Fakultät für Informatik und der Philologisch-Kulturwissenschaftlichen Fakultät.

Projekt „Understanding Language in Context“

Die neue Forschungsgruppe von Sebastian Schuster wird sich mit dem Thema „Understanding Language in Context“ beschäftigen.

KI-Assistenten wie ChatGPT haben im letzten Jahr viele Potentiale von automatisierter Sprachverarbeitung aufgezeigt. Unter anderem können sie in vielen Fällen einfache Texte verfassen oder Programmcode automatisch generieren. Wenn man Large Language Models (LLMs, die Haupttechnologie aktueller KI-Assistenten) jedoch einer systematischeren Analyse unterzieht, stellt sich heraus, dass die generierten Antworten immer noch oft unzuverlässig sind.

Das Ziel dieses Forschungsprojekts ist es, die Verständnisfähigkeiten von LLMs zu verbessern. Schuster erläutert:

Im Rahmen dessen werden wir neue Modelle entwickeln, die besser dafür geeignet sind lange Texte und indirekte Sprache zu verstehen. Zudem werden wir neue Evaluationsmethoden entwickeln, bei denen wir sicherstellen, dass Modelle keine ‚Abkürzungen‘ nehmen können und somit nur den Anschein wahren Texte zu verstehen.

Dies hilfe Forschern dabei zu verstehen, welche Fähigkeiten und Limitierungen aktuelle und zukünftige LLMs tatsächlich haben und wie diese verbessert werden können.

red