direkt zum Inhalt springen

direkt zum Hauptnavigationsmenü

TU Berlin

Inhalt des Dokuments

Kolloquium der Arbeitsgruppe Modellierung • Numerik • Differentialgleichungen


Sommersemester 2022
Verantwortliche Dozenten:
Alle Professoren der
Arbeitsgruppe Modellierung • Numerik • Differentialgleichungen
Koordination:
Tobias Breiten
Termine:
Di 16-18 Uhr in MA 313 und nach Vereinbarung
Inhalt:
Vorträge von Gästen und Mitarbeitern zu aktuellen Forschungsthemen
Kontakt:

Beschreibung

Das Kolloquium der Arbeitsgruppe "Modellierung, Numerik, Differentialgleichungen" im Institut der Mathematik ist ein Kolloquium klassischer Art. Es wird also von einem breiten Kreis der Mitglieder der Arbeitsgruppe besucht. Auch Studierende nach dem Bachelorabschluss zählen schon zu den Teilnehmern unseres Kolloquiums.
Aus diesen Gründen freuen wir uns insbesondere über Vorträge, die auf einen nicht spezialisierten Hörerkreis zugeschnitten sind und auch von Studierenden nach dem Bachelorabschuss bereits mit Profit gehört werden können.

Terminplanung

Terminplanung / schedule (Abstracts s. unten / Abstracts see below)
Datum
date
Zeit
time
Raum
room
Vortragende(r)
speaker
Einladender
invited by
25.10.2022
16:15
MA 313
Peter Benner (Max-Planck Institut für Dynamik komplexer technischer Systeme, Madeburg)
T. Breiten
29.11.2022
16:15
MA 313
Joachim Escher (Leibniz Universität Hannover)
E. Emmrich
17.01.2023
16:15
MA 313
Martin Stoll (Technische Universität Chemnitz)
T. Breiten

Abstracts zu den Vorträgen

Peter Benner (MPI Magdeburg): Learning State-Space Models of Dynamical Systems from Data
Learning dynamical models from data plays a vital role in  engineering design, optimization, and predictions. Building models describing the dynamics of complex processes (e.g., weather dynamics, reactive flows, brain/neural activity, etc.) using empirical knowledge or first principles is frequently onerous or infeasible. Therefore, system identification has evolved as a scientific discipline for this task since the 1960ies. Due to the obvious similarity of approximating unknown functions by artificial neural networks, system identification was an early adopter of machine learning methods. In the first part of the talk, we will review the development in this area until now.
For complex systems, identifying the full dynamics using system identification may still lead to high-dimensional models. For engineering tasks like optimization and control synthesis as well as in the context of digital twins, such learned models might still be computationally too challenging in the aforementioned multi-query scenarios. Therefore, it is desirable to identify compact approximate models from the available data. In the second part of this talk, we will therefore exploit that the dynamics of high-fidelity models often evolve in low-dimensional manifolds. We will discuss approaches learning representations of these low-dimensional manifolds using several ideas, including the lifting principle and autoencoders. In particular, we will focus on learning state-space representations that can be used in classical tools for computational engineering. Several numerical examples will illustrate the performance and limitations of the suggested approaches.

Joachim Escher (Leibniz Universität Hannover): Einige mathematische Aspekte der Navier-Stokesschen Gleichungen
Seit der Formulierung der fundamentalen Grundgleichungen der Strömung eines viskosen Fluids durch Claude Louis Marie Henri Navier und Sir George Gabriel Stokes, FRS, in der ersten Hälfte des 19. Jahrhunderts und vor allem seit der fundamentalen Arbeit von Jean Leray aus dem Jahr 1934 hat die Frage nach der Existenz globaler klassischer Lösungen für die Navier-Stokesschen Gleichungen die Mathematik und hier insbesondere die Analysis enorm befruchtet. Trotzdem bleibt die Frage bis heute unbeantwortet und ist im Jahre 2000 als eines der sieben Milleniumsprobleme der Mathematik benannt worden. Im Vortrag wird zunächst das Problem aus den Grundgleichungen der Strömungsmechanik hergeleitet. Danach werden einige der wichtigsten Ergebnisse, die beim Versuch der Beantwortung der Frage in den letzen 90 Jahren entstanden sind, vorgestellt.

Martin Stoll (Technische Universität Chemnitz): Efficient training of Gaussian process regression
Gaussian processes are a versatile tool in machine learning and statistics. We will in this talk introduce the general concept of Gaussian processes and in particular focus on the optimization problems that are associated with obtaining the hyperparameters that best fit the training data. For the optimization of the likelihood function one not only needs to solve a linear system of equations but also requires the evaluation of a log-determinant. While this is easy for small data sets it requires different approaches if the kernel matrices get large. This leads to a trace estimation problem that can be solved via a Krylov subspace method. No optimization without gradients, right? So computing them also becomes challenging and some mathematical care is needed to compute the correct gradient. We are in luck as this again can be done with some Krylov subspace magic and I can hopefully illustrate on some examples that this can be used beyond the traditional matrix case.

Zusatzinformationen / Extras