Professor Voigtlaender studierte in seiner Heimatstadt Aachen Mathematik und Informatik an der RWTH, wo er zudem seine Promotion erwarb. Als promovierter wissenschaftlicher Mitarbeiter war er anschließend neben der RWTH auch an der TU Berlin sowie für zwei Jahre als Akademischer Rat an der KU tätig. Danach wechselte er aus eine Stelle als Senior Scientist an die Universität Wien. Vor seiner Berufung an die KU forschte Voigtlaender – gefördert durch die Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Emmy-Noether-Programmes – an der TU München. Das dort begonnene Projekte zum Thema „Stability and Solvability in Deep Learning“ führt er nun an der KU weiter.
Seine Arbeitsschwerpunkte bilden die mathematischen Grundlagen des Maschinellen Lernens, insbesondere im Hinblick auf ein Verständnis und die Transparenz des sogenannten Deep Learnings. „Dabei trainiert man ein künstliches neuronales Netz anhand von Beispieldaten so, dass es die gewünschte Aufgabe gut löst – etwa im Hinblick auf automatische Sprach- oder Bilderkennung“, erklärt Voigtlaender. Trotz der großen praktischen Erfolge sei bisher sehr schlecht verstanden, warum dies so gut funktioniere und wo die Grenzen dieser Techniken liegen. „Ich denke, der Begriff Künstliche Intelligenz vermittelt eine Erwartung an diese Techniken, die trotz allem Fortschritts noch nicht erfüllt werden kann. Deshalb ist es wichtig, mathematisch grundlegend zu verstehen, wie Ergebnisse durch Maschinelles Lernen entstehen und wie fundiert sie sind.“
Daher beschäftigt sich Professor Voigtlaender unter anderem mit der Robustheit von neuronalen Netzen: „Es wurde empirisch gezeigt, dass diese oft instabil sind. Mit einer minimalen Störung der Eingabe, die für den Menschen oft unsichtbar ist, kann man ein trainiertes neuronales Netz dazu bringen, eine komplett falsche Ausgabe zu liefern. So wird dann zum Beispiel das Bild eines Pandabären fälschlicherweise als Gibbon-Affe interpretiert.“ Für andere Anwendungen – etwa beim autonomen Fahren oder in der Medizin – könnten die Folgen solcher Fehler automatischer Datenauswertung deutlich gravierendere Folgen haben. Vor diesem Hintergrund analysiert Voigtlaender diese sogenannten „adversarial examples“ mathematisch, um herauszufinden, warum diese auftreten und wie man sie vermeiden kann. Zudem erforscht er grundsätzlich, welche Funktionen sich durch neuronale Netze gut und welche schlecht abbilden lassen sowie wie viele Beispieldaten ausreichen bzw. nötig sind, um neuronale Netze erfolgreich zu trainieren.
Generell fasziniert es Professor Voigtlaender, dass man durch Mathematik „absolute Wahrheiten finden kann“, welche international identisch und universell gültig sind. Diese Begeisterung für die Mathematik möchte er auch an seine Studierenden weitergeben.
Informationen zum MIDS finden sich unter www.ku.de/mids, Details zum neuen Bachelorstudiengang „Data Science“ finden Studieninteressierte unter www.ku.de/ds.