Schnellerer Weg zu synthetischen Daten gesucht

Helmholtz-Gemeinschaft fördert Projekt zur Datengewinnung mittels neuronaler Netzwerke

Ersatzmodelle neuronaler Netze in der Hochenergiephysik: Ein mit einem Teilchendetektor aufgenommenes Ereignis, aus dem 10 Teilchenströme (sogenannte Jets, dargestellt als orangefarbene Kegel), ein bestimmtes Elementarteilchen (Myon, rote Linie) und weitere Elementarteilchen (gelbe Linien) hervorgegangen sind. Diese Visualisierung wurde aus den Messdaten des Teilchendetektors erstellt. Neben experimentellen Daten wird in der Hochenergiephysik standardmäßig auch mit simulierten beziehungsweise synthetischen Daten gearbeitet. Für das korrekte Erstellen synthetischer Datensätze müssen alle physikalischen Randbedingungen bedacht werden, was diese Aufgabe sehr rechenintensiv macht. Der Einsatz von neuronalen Netzwerken könnte das Erstellen synthetischer Datensätze deutlich beschleunigen. Mit hohen Mengen von ohne größere Anstrengung erzeugbaren synthetischen Daten könnte die Wissenschaft in Zukunft mehr Hypothesen zum Standardmodell der Elementarteilchenphysik und über dieses Modell hinaus testen (Bild: CASUS/2021 CMS Collaboration).

Neben experimentellen Daten wird in der physikalischen Grundlagenforschung auch mit synthetisch erzeugten Daten gearbeitet. Deren Gewinnung mit aktuell verfügbaren Simulationsmethoden ist jedoch zeitintensiv und bindet immense Rechnerkapazitäten. Ein neues Projekt von DESY, dem Helmholtz-Zentrum Dresden-Rossendorf (HZDR) und dem Zentrum für datenintensive Systemforschung CASUS (Center for Advanced Systems Understanding, Görlitz) am HZDR erprobt einen Ansatz, mit dem Daten zum Verhalten von physikalischen Systemen mittels neuronaler Netze schneller erzeugt werden können. Das Projekt „SynRap“ wurde in einem Wettbewerbsverfahren zur Förderung ausgewählt. Die 15 Gewinnerteams erhalten über Helmholtz AI, der Kooperationseinheit der Helmholtz-Gemeinschaft zum Thema Künstliche Intelligenz, in den kommenden Jahren insgesamt 6,2 Millionen Euro.

Synthetische Daten sind am Computer algorithmisch erzeugte Daten. Sie werden zum Beispiel für das Testen von Software oder die Weitergabe von anonymisierten personenbezogenen Daten genutzt. Das Trainieren von Algorithmen des maschinellen Lernens ist ein weiteres wichtiges Einsatzgebiet. Hier werden synthetische Daten insbesondere zum Trainieren jener Algorithmen benötigt, die zu den tiefen neuronalen Netzen („deep neural networks“) zählen. „Diese Algorithmen müssen mit besonders großen Datensätzen angelernt werden, damit bei der Analyse der experimentellen Daten akkurate Ergebnisse erzielt werden“, erklärt Isabell Melzer-Pellmann, Gruppenleiterin bei DESY. Aktuell werden diese Trainingsdaten mit komplexen numerischen Simulationsmethoden aus zum Beispiel der Quantenmechanik erzeugt. Dieses Vorgehen ist allerdings rechenintensiv und nimmt viel Zeit in Anspruch.

Eine schnellere Alternative wird nun im Rahmen des Projekts „SynRap – Auf maschinellem Lernen basierende Generierung synthetischer Daten für die schnelle Modellbildung in der Physik“ erforscht. Das Ziel von Melzer-Pellmann und ihren Mitstreitern Dirk Krücker vom DESY, Attila Cangi vom CASUS und Nico Hoffmann vom HZDR-Institut für Strahlenphysik ist es, den Prozess der Erzeugung großer Mengen synthetischer Daten um den Faktor 1000 zu beschleunigen. Dafür will das Team eine Toolbox von für diesen Zweck geeigneten Algorithmen des maschinellen Lernens zusammenstellen. Diese Algorithmen werden aus einer bestimmten Untergruppe der neuronalen Netzwerke stammen. In Abgrenzung zu den tiefen neuronalen Netzwerken wird diese als stellvertretende neuronale Netzwerke beziehungsweise Ersatzmodelle neuronaler Netzwerke („surrogate neural networks“) bezeichnet.

Ob die Qualität der derart erzeugten Datensätze stimmt, soll anhand je einem Beispiel aus der Hochenergiedichtephysik und der Hochenergiephysik überprüft werden. Im Bereich der Hochenergiedichtematerie geht es um die Zusammensetzung des Inneren von Planeten und Sternen, aber auch um Fragen angewandter Forschung wie der Bearbeitung von Materialien mit starken Lasern. Die Hochenergiephysik erforscht indes grundlegende Fragen zur Natur unseres Universums: Woraus besteht Materie? Welche Gesetze bestimmen Wechselwirkungen der Bestandteile der Materie?

Ein Werkzeugkasten – viele Einsatzgebiete

„Die Besonderheit unseres Projektes ist es, dass unser Werkzeugkasten von verschiedenen neuronalen Netzwerken letztendlich in vielen Forschungsgebieten Verwendung finden soll“, erläutert Cangi. Daher wird bei der Entwicklung der Software-Tools der Bedarf anderer Naturwissenschaften berücksichtigt. „Die interdisziplinäre Natur von CASUS ermöglicht es uns, unsere Arbeit immer auch an typischen Nutzungsszenarien aus den Umweltwissenschaften oder der Systembiologie zu orientieren“, fährt Cangi fort.

Die Helmholtz-Kooperationseinheit zur Künstlichen Intelligenz (Helmholtz AI) stärkt die Anwendung und Entwicklung von angewandter künstlicher Intelligenz (engl. artificial intelligence, AI) und maschinellem Lernen. Das Expertenpanel wählte insbesondere jene Forschungsprojekte des Wettbewerbs aus, bei denen ein hoher Erkenntnisgewinn in Aussicht steht. Allerdings gelten solche Projekte auch als besonders riskant. Es muss also damit gerechnet werden, auf unlösbare Probleme zu stoßen und das erklärte Projektziel nicht zu erreichen. Im Rahmen der aktuellen Ausschreibungsrunde vergibt die Helmholtz-Gemeinschaft insgesamt 6,2 Millionen Euro. Bei der ersten Ausschreibung der Helmholtz-AI-Projekte vor einem Jahr wurden 19 Vorhaben mit insgesamt 7,2 Millionen Euro bedacht.

Weitere Informationen:
CASUS-Webseite (Center for Advanced Systems Understanding, Görlitz)
Helmholtz AI-Webseite (Helmholtz-Kooperationseinheit zur Künstlichen Intelligenz, auf Englisch)
HZDR-Webseite