Veranstaltungen 2019

infos-Kolloqium "'Korrekte' Simulation - Dank oder trotz Supercomputern, Stochastik und Big Data?"
Thursday, 07. February 2019, 18:15 - 20:00
Hits : 1276
 
 

"'Korrekte' Simulation - Dank oder trotz Supercomputern, Stochastik und Big Data?"

Universität Stuttgart, Universitätsstr. 38, 70569 Stuttgart‐Vaihingen, Raum 0.108

Referentin
Prof. Dr. Miriam Mehl studierte Mathematik an der Technischen Universität München, wo sie 2001 promovierte und 2010 habilitierte. 2012 wurde sie Professorin für numerische Mathematik an der TU München und ist seit 2013 Professorin  für die Simulation großer Systeme und Direktorin des Instituts für Parallele und Verteilte Rechner (IPVS) an der Universität Stuttgart.Sie ist einer der 25 Principal Investigators des gerade bewillgten Exzellenzclusters 'Data Driven Simulation Technology' und seit 2017 als Prodekan der Fakultät 5 zuständig für den Fachbereich Informatik. Schwerpunktthemen sind u.a.: Wissenschaftliches Rechnen, Simulation von gekoppelten Problemen wie Fluid-Struktur-Akustik Interaktionen, Hardware-effiziente Implementierung mathematischer Lösungsverfahren, sowie parallele numerische Verfahren

Abstract
Die schnelle Entwicklung numerischer Methoden sowie leistungsfähiger Supercomputerarchitekturen ermöglicht die Simulation in Bereichen, die für die Computersimulation lange Zeit unzugänglich waren. Beispiele umfassen Mehrskalensimulationen, z. B. in Geotechnology oder Astrophysik, die Zeitskalen von Femtosekunden bis zu Millionen von Jahren auflösen müssen, und räumliche Skalen von subatomaren Effekten zu Kilometern oder sogar ganzen Galaxien. Diese Systeme sowie viele biomedizinische oder technische Anwendungen erfordern typischerweise auch die explizite Modellierung verschiedener physikalischer Prozesse wie Strömungsphänomene, elastische Strukturen, Molekulardynamik, Wärmeübertragung, chemische Reaktionen und Transportprozesse. Trotz der beeindruckenden Fortschritte in der Simulationstechnik, die es heute sogar erlauben, Unsicherheiten für viele der genannten Beispiele zu quantifizieren und Modellparameter oder technische Systemeigenschaften zu optimieren, bleiben viele Fragen offen. Insbesondere sind machbare Programmiermodelle für heterogene, massiv parallele Computerarchitekturen, stochastische Modelle zur Fehler- und Unschärfereduktion und -quantifizierung sowie die Verknüpfung von großen Mengen an experimentellen Daten mit Simulationen sehr aktive Forschungsfelder. Die Präsentation zeigt Beispiele für aktuelle Entwicklungen, die neue Klassen von Simulationen ermöglichen und einen Ausblick auf zukünftige Trends im Spannungsfeld zwischen Supercomputern, Numerik, Stochastik und Big Data geben.

Das Kolloquium wurde veranstaltet in Zusammenarbeit mit der GI/acm.