Küste Hero Istock-1209864348 Anna Gorbacheva

Methoden & Software

JL_VMD_Methoden

Bild: Hereon/N. Huber

Am Hereon werden für das JL VMD mehrere Softwaretools entwickelt. Der nichtkommerzielle hocheffiziente und skalierbare Finite-Elemente-Code 4C wird gemeinsam mit der TU München (TUM) und der Universität der Bundeswehr München entwickelt. Hierbei wird auch eine Anbindung an Exascale-Systeme berücksichtigt. Um dies zu gewährleisten, wird der multiphysikfähige Code ausgehend von dem Vorgänger-Code BACI neu auf der deal.ii-Bibliothek aufgebaut (https://www.dealii.org/). In diesem Zusammenhang werden Neuentwicklungen an Hereon und TUM auch regelmäßig als Teile von deal.ii-Releases als Open Source Code weltweit zugänglich gemacht. Mit 4C wird es künftig möglich sein, Probleme der Festkörpermechanik, Fluidmechanik, Korrossion zu lösen. Ebenso können gekoppelte elektromechanische und diffusive Probleme auf unterschiedlichen Diskretisierungen höchst effizient gelöst werden. Hierbei wird großen Wert auf die Skalierbarkeit gelegt, die für nichtlineare Plastizität bereits auf bis zu 1000 CPUs erfolgreich getestet wurde.
Codes, die auf der numerischen Lösung physikalischer Gleichungen basieren, werden durch Methodenentwicklungen auf dem Gebiet des maschinellen Lernens ergänzt. Im Vordergrund stehen hier selbstoptimierende Architekturen, das Verschneiden von Simulationsdaten mit experimentellen Daten, sowie die Kopplung von daten-gestützten und theorie-gestützten Architekturen.

graphical abstract cropped

Bild: Hereon/E. Schiessler

Wir haben ein Framework für einen genetischen Architektursuchalgorithmus für neuronale Netze entwickelt, der die Optimierung der Netzwerkarchitektur mit dem eigentlichen Training des neuronalen Netzes kombiniert. Basierend auf mathematischen und statistischen Kriterien werden modifizierte Netzwerk-Versionen erzeugt, die in Konkurrenz zueinander stehen. Aus dem Pool aller solcher generierter Kandidaten werden Gewinner ausgewählt, diese erhalten weiteres Training. Der Prozess wird so lange wiederholt, bis ein vollständig entwickeltes, fertig trainiertes, finales Netzwerk entsteht.
Quelle: Elisabeth J. Schiessler, Roland C. Aydin et al., Neural network surgery: Combining training with topology optimization, Neural Networks, 2021 Publikation