Philipp Neumann ist neuer leitender Wissenschaftler und Leiter von DESY IT

Experte für Hochleistungsrechnen zur weiteren Einführung von Supercomputing-Infrastrukturen in DESY-Systeme

Prof. Dr. Philipp Neumann (Bild: DESY, Marta Mayer)

DESY hat einen neuen IT-Gruppenleiter und leitender Wissenschaftler: Philipp Neumann. An der Universität Hamburg wurde er kürzlich zum Professor (für Hochleistungsrechnen und Data Science) ernannt. Neumann bringt umfangreiche Erfahrungen in der daten- und HPC-getriebenen Forschung sowie im Betrieb und Management von HPC-Infrastrukturen mit. Neumann tritt die Nachfolge von Volker Gülzow an, der letztes Jahr sich in den Ruhestand verabschiedet hat.

Neumann war zuletzt als Professor an der Helmut-Schmidt-Universität / Universität der Bundeswehr Hamburg (HSU) tätig, wo er seine umfangreichen Kompetenzen im Bereich des wissenschaftlichen Rechnens, des Hochleistungsrechnens und der Datenwissenschaft in verschiedenen Bereichen und Disziplinen einbrachte und erweiterte. Er baute an der HSU eine HPC-Kompetenzplattform auf, um Forschungsgruppen durch Supercomputing-Infrastruktur und Performance-Engineering-Projekte bei der Nutzung von HPC-Plattformen zu unterstützen.

Mit einem Schwerpunkt auf Berechnungsmethoden befasst sich seine Forschung mit Problemen aus verschiedenen Disziplinen: Dazu gehören die Entwicklung massiv paralleler Simulationsmethoden und -software zur Untersuchung von Fluiden, mit Anwendungsbereichen in der Thermodynamik oder Verfahrenstechnik oder die Entwicklung von Datenanalysemethoden in medizinischen Anwendungen. Vor seinem Wechsel an die HSU war er außerdem an den Arbeiten des European Centre of Excellence for Simulation of Weather and Climate in Europe beteiligt.

Als Leiter der DESY-IT-Gruppe hat Neumann klare Ziele: Er will die herausragenden IT-Spitzenaktivitäten im Bereich Hard- und Software beibehalten, aber auch die rasanten technologischen Entwicklungen des wissenschaftlichen Rechnens miteinbeziehen. „Als führendes Forschungszentrum im Bereich Materie müssen wir das wissenschaftliche Rechnen in diesem Bereich weiter ausbauen und deutlich vorantreiben, einschließlich der Erforschung und Entwicklung von Datenanalysemethoden, der Simulationstechnik und natürlich der künstlichen Intelligenz und des maschinellen Lernens“, sagt Neumann. „Unsere Rechen- und Datenverwaltungsinfrastrukturen müssen sowohl zuverlässig als auch innovativ sein – das ist eine Herausforderung.“ All diese Aspekte und deren optimale Gewichtung seien der Schlüssel für einen optimalen IT-Betrieb – vor allem angesichts der rasanten Entwicklung von künstlicher Intelligenz und maschinellem Lernen. „Dazu gehört auch die Bereitstellung bzw. Vermittlung von Kompetenzen, die zur Nutzung der komplexen Infrastrukturen in der Forschung benötigt werden“, sagt Neumann.

Daher baut Neumann gezielt eine Forschungsgruppe zu Computermethoden für die Materieforschung auf. Schwerpunkt: datenbasierte Verfahren der künstlichen Intelligenz und des maschinellen Lernens, der Datenreduktion und -kompression sowie der Datenanalyse undSimulation mit Hilfe von Hochleistungsrechnern.