Gudrun Thäter, Sebastian Ritterbusch

Modellansatz

Mathematik und ihre Anwendungen
Modellansatz

Description

Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.

Episodes

Gastransport

Aug 8, 2019 29:19

Description:

In dieser Folge spricht Gudrun mit Larissa Dietz und Jonathan Jeppener. Beide sind im Masterstudiengang Verfahrenstechnik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung.

Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen.

Konkret läuft das Praktikum etwa folgendermaßen ab:
Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet.

Das Projekt von Larissa und Jonathan betrachtete den Stofftransport von CO2-Gas in flachen Photobioreaktoren. Mit ihrer großen Oberfläche erlauben sie viel einfallendes Licht. Algenzucht im industriellen Maßstab ist unerlässlich, um die weltweite Nachfrage nach schnell nachwachsender Nahrung und erneuerbaren Energiequellen zu befriedigen. Derzeit nutzen die meisten Produzenten kosteneffiziente und einfach zu bedienende offene Teiche. Die Nachfrage nach gut steuerbaren geschlossenen Photobioreaktoren steigt durch die erhöhte Effizienz der gut einstellbaren Reaktorbedingungen. Weitere Vorteile gegenüber offenen Reaktoren sind ein geringerer CO2- und Wasserverlust und eine größere Vielfalt an kultivierbaren Arten. Für ein optimales Algenwachstum müssen die regulierende Flüssigkeitsdynamik, der Lichttransfer, biochemische Reaktionen und deren gegenseitige Wechselwirkung optimiert werden. Die Untersuchung dieser Parameter mit Hilfe gekoppelter numerischer Simulationen vermeidet teure Experimente und trägt somit zur Verbesserung geschlossener Photobioreaktoren bei.

Larissa und Jonathan beschränkten sich für ihr Projekt auf die Modellierung des Stofftransports aller Komponenten und den Lichteinfall. Konkret ergeben sich dabei eine Advektions-Diffusions-Gleichung für den Gastransport und die Navier-Stokes Gleichungen für das Fluid. Die Photosynthese für CO2-Umsatz wurde daran als Quelle gekoppelt.

Aufgrund der hohen Parallelisierbarkeit und der Einfachheit der Berechnungsgitterkopplungen ist die Lattice-Boltzmann-Methode (LBM) geeignet, dieses System von interagierenden Differentialgleichungen zu lösen, die Fluidströmung, Stofftransport und Strahlungsfeld beschreiben. Der Bericht von Larissa und Jonathan schlägt stabile Diffusionsparameter und eine Betriebslichtkopplung vor, die sie in ihrer Projektarbeit ermittelt haben. Der von ihnen betrachtete Testfall basiert auf der Simulation der Partikelströmung durch Trunk et al. (Quelle unten). Die beiden mussten außerdem geeignete Randbedingungen finden.

Die von ihnen gefundenen Simulationsparameter gewährleisten eine stabile Simulation.

CO2-Transport im Photobioreaktor

CO2-Transport im Photobioreaktor mit leichter Kopplung



Literatur und weiterführende Informationen E. Sierra e.a.: Characterization of a flat plate photobioreactor for the production of microalgae. Chemical Engineering Journal, 138:136–147, 03 2008. R. Trunk e.a.: Inertial dilute particulate fluid flow simulations with an euler–euler lattice boltzmann method. Journal of Computational Science, 17:438–445, 2016. T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. C. Posten and R. Rosello-Sastre: Microalgae Reactors. American Cancer Society, 2011. L. Dietz und J. Jeppener: Simulation of CO2 Distribution in Photobioreactors with the Lattice Boltzmann Method, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code.

Podcasts J. Kolbe, G. Thäter: Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 065, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2015.

GAMM Juniors

Aug 1, 2019 1:00:04

Description:

Gudrun hat sich Ende Mai 2019 in Mannheim mit Kerstin Lux und Benjamin Unger verabredet, um mit ihnen über ihre Erfahrungen als GAMM Junioren zu sprechen. Benjamin ist aktuell Sprecher dieses Nachwuchsgremiums der Gesellschaft für Angewandte Mathematik und Mechanik (kurz GAMM). Kerstin wurde Ende 2018 als GAMM Juniorin vorgeschlagen und ist jetzt das erste Jahr dabei.

Gudrun und Kerstin hatten sich im März 2019 in Bonn bei einer Konferenz über Optimierung kennengelernt und das Podcastgespräch verabredet. Kerstin ist zur Zeit Doktorandin in der Arbeitsgruppe von Simone Göttlich an der Uni in Mannheim, weshalb sich Mannheim als guter Treffpunkt für ein ruhiges Gespräch anbot. Etwas später am gleichen Tag wurde auch das Podcastgespräch mit Simone Göttlich geführt.

Die GAMM sagt über das Gremium: "GAMM-Junioren sind junge NachwuchswissenschaftlerInnen und Mitglieder der GAMM, die für die Jahre 2012 bis 2014 erstmals aus einer Reihe an Vorschlägen ernannt wurden.

In der Hauptversammlung der GAMM im Rahmen der Jahrestagung 2011 in Graz wurde die Nominierung junger Nachwuchswissenschaftler beschlossen, die sich durch herausragende Leistungen in Diplom- und/oder Doktorarbeiten auf dem Gebiet der Angewandten Mathematik oder Mechanik auszeichnen. Ende 2011 wurden daraufhin die ersten 10 GAMM-Junioren nominiert, wobei eine Vorauswahl auf Basis von Vorschlägen durch die Hochschulvertreter der GAMM getroffen wurde.

In jedem Jahr werden 10 weitere GAMM-Junioren ernannt, so dass die Gruppe nach einer Anlaufphase von drei Jahren auf 30 Personen angewachsen sein wird. Nach drei Jahren endet automatisch die Mitgliedschaft als GAMM-Junior. Während dieser Zeit sind die GAMM-Junioren beitragsbefreit. Mittels der kostenfreien GAMM-Mitgliedschaft und der dynamischen personellen Zusammensetzung der Gruppe soll eine zusätzliche finanzielle und ideelle Förderung von Nachwuchswissenschaftlern erreicht werden. Durch die Überschneidung der Amtszeit der Mitglieder können diese ihr fachliches und organisatorisches Wissen an die nachfolgenden Generationen der GAMM Juniors weitergeben."

Die Rolle GAMM-Junior wird also als Preis für Studierende, Doktoranden und Post-Doktoranden verliehen und beinhaltet eine kostenlose Mitgliedschaft in der GAMM für drei Jahre. Kerstin und Benjamin erleben es als lebendiges Netzwerk von gleichgesinnten, die voneinander sowohl fachlich als auch darüber hinaus lernen und die sich gegenseitig unterstützen.

Die GAMM vertritt Interessen der angewandten Mathematik und Mechanik vor allem auf europäischer und deutscher Ebene. Kerstin und Benjamin erleben insbesondere die Jahrestagungen als Familientreffen. Die Forschungsthemen sind oft Disziplinen übergreifend und die GAMM ermöglicht es, eine gemeinsame Sprache zu erarbeiten zwischen Mathematik und Mechanik. Die GAMM gibt drei Zeitschriften heraus: die GAMM-Mitteilungen, die ZAMM und die PAMM (Proceedings der Jahrestagung). Natürlich sind die Jahrestagungen stets offen für nicht-Mitglieder.

Neben den GAMM-Junioren gibt es auch GAMM Nachwuchsgruppen an Universitäten in Augsburg, Berlin, Chemnitz, Dortmund, Hamburg, Ulm.

Im Rahmen der Jahrestagung der GAMM gibt es inzwischen schon traditionelle Beiträge der 30 jungen Leute. Z.B. das YAMM-lunch (Young Academics meet mentors) für den nichtfachlichen Austausch mit Mentoren, eine Postersession aus Beiträgen der GAMM Junioren, wo sich auch Alumni (also ehemalige GAMM-Junioren) einfinden, um zu sehen, wie der Staffelstab weitergetragen wird und ein Treffen am Rande der Jahrestagung am Freitagnachmittag. Darüber hinaus gibt es auch jedes Jahr ein Herbsttreffen für den Forschungsaustausch und die Planung eigener Aktivitäten. Bewährt haben sich z.B. Sommerschulen (sogenannte SAMM) zu bestimmten Themen, die dann offen für alle Interessierten sind. Im Moment arbeiten die Junioren daran, auch einen Hauptvortrag auf der nächsten GAMM Jahrestagung durch eine Sommerschule vorzubereiten, um den Stoff für junge Forschende besser zu erschließen.

Ein weiteres Abenteuer für die GAMM-Junioren war die Gründung des Journals GAMMAS für Studierende und deren Forschungsergebnisse. Es zeigte sich, dass die Gründung ohne Verlag im Hintergrund ein aufwändiger Prozess war. Es braucht eine Plattform, auf der Beiträge strukturiert eingereicht werden können und wo der Peer-Review Prozess ablaufen kann. Man muss auch automatisch generierte E-Mails für die Stufen des Veröffentlichungs-Prozesses formulieren. Als Grundlage konnte das Open Journal System dienen. Außerdem gibt es Unterstützung durch Universität in Chemnitz - z.B. durch Bereitstelung des Servers.

Das Editorial Board besteht aus den Sprechern der GAMM Junioren, die Gutachten werden von den 30 GAMM Junioren erstellt. Darüber hinaus fungiert Prof. Dr. Martin Stoll als Chief Editor.

Vorgesehen sind drei Formate: kurze sogenannte Technical reports, "normale" Artikel und Arbeiten mit didaktischem Inhalt (educational articles). Bis ein Jahr nach Abschluss des Masters sind Personen berechtigt, ihre Arbeiten für die ersten zwei Formate einzureichen. Didaktische Arbeiten können auch von Lehrenden aller Ausbildungsstufen eingereicht werden.Thematisch ist GAMMAS offen für Forschungsbeiträge aus allen in der GAMM vertretenen Bereichen. Wichtig ist es vor allem, wissenschaftlich sauber zu arbeiten. Explizit wird auch die Veröffentlichung von negativen Resultaten ermöglicht.

Benjamin hat in Karlsruhe seine Bachelorarbeit geschrieben (in der gleichen Arbeitsgruppe, in der auch Gudrun tätig war). Anschließend hat er während eines Jahres an der Virginia Tech in den USA einen (eigentlich zweijährigen) Masterstudiengang Mathematik abgeschlossen. Das war im Rahmen eines Partnerschaftsprogrammes der Uni in Karlsruhe mit der Virginia Tech möglich. Zur Zeit arbeitet er an der TU Berlin an einer mathematischen Promotion im Thema "Delay differential-algebraic equations" in der Arbeitsgruppe von Volker Mehrmann.

Kerstin hat ihren Bachelor und Master in Wirtschaftsmathematik an der Uni in Mannheim abgeschlossen inklusive eines Auslandssemesters an der Université Nice Sophia Antipolis in Frankreich. Nun arbeitet sie als Doktorandin in der AG wissenschaftliches Rechnen zu Methoden der
optimalen Einspeisung in Versorgungssysteme unter Berücksichtigung unsicherer Nachfrage.



Literatur und weiterführende Informationen D. Kern, M. Bartelt und B. Unger: How to write an article for GAMMAS and a longer title, GAMM Archive for Students, Vol. 1, 2019, pp. 1-5. Wie wird ein Artikel bei GAMMAS eingereicht? GAMM Wikipedia.

Podcasts S. Göttlich, G. Thäter: Verkehrsoptimierung, Gespräch im Modellansatz Podcast, Folge 209, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.

Formoptimierung

Jul 18, 2019 23:24

Description:

Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist.

Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert.

Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können

Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden.

In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen:

mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren.

Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt.

Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen.

Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind.

Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend Finite-Element-Analysis Software (FEA). Das Strukturoptimierungspaket TOSCA bietet anschließend mehrere Möglichkeiten zur Optimierung an. Relevant ist für das vorliegende Problem jedoch nur die Formoptimierung. Sie setzt ihre Ziel- und Restriktionsfunktionen aus Steifigkeit, Volumen, Verschiebung, inneren Kräften und Widerstandsmoment zusammen. Um eine Formoptimierung zu starten, muss zunächst vom Nutzer eine Triangulierung zur Verfügung gestellt werden, mit der die Werte der Ziel und Restriktionsfunktion berechnet werden. Während der Optimierung werden die Positionen der Oberflächenknoten variiert. Beispielsweise wird Material an Stellen hoher Spannung hinzugefügt und an Stellen niedriger Spannung entfernt.

Problematisch an der Formoptimierung ist, dass sich die Qualität der finiten Elemente durch die Bewegung der Oberflächenknoten verändert. Modifiziert man nur die Oberflächenknoten, so entsteht ein unregelmäßiges Netz, welches keine gleichmäßigen finiten Elemente enthält oder schlimmstenfalls keine gültige Zerlegung der modifizierten Komponente ist. Die auf der ungültigen Triangulierten durchgeführten Berechnungen der Zielgrößen sind daher nicht mehr zuverlässig. Abhilfe kann nur geschaffen werden, wenn das Netz nach jedem Iterationschritt geglättet wird.

Im Rahmen von Henriekes Arbeit werden zwei Ansätze zur Netzglättung implementiert, diskutiert und miteinander verglichen: Glättung durch den Laplace Operator und Qualitätsmaße für das Finite Elemente Gitter. Die Anwendung des Laplace Operators ist theoretisch die fundiertere Variante, aber in der numerischen Umsetzung sehr aufwändig.



Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. http://dx.doi.org/10.4172/2090-0902.1000181 C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988.

Podcasts M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. G. Thäter, H. Benner: Fußgänger, Gespräch im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015

Batteries

Jul 11, 2019 56:57

Description:

In June 2019 Gudrun talked with Serena Carelli. Serena is member of the Research Training Group (RTG) Simet, which is based in Karlsruhe, Ulm and Offenburg. It started its work in 2017 and Gudrun is associated postdoc therein. The aim of that graduate school is to work on the better understanding of Lithium-ion batteries. For that it covers all scales, namley from micro (particles), meso (electrodes as pairs) to macro (cell) and involves scientists from chemistry, chemical engineering, material sciences, electro engineering, physics and mathematics. The group covers the experimental side as well as modeling and computer simulations.

Serena is one of the PhD-students of the program. She is based in Offenburg in the group of Wolfgang Bessler (the deputy speaker of the RTG). Her research focusses on End-of-life prediction of a lithium-ion battery cell by studying the mechanistic ageing models of the graphite electrode among other things.

Mathematical modelling and numerical simulation have become standard techniques in Li-ion battery research and development, with the purpose of studying the issues of batteries, including performance and ageing, and consequently increasing the model-based predictability of life expectancy. Serena and others work on an electrochemical model of a graphite-based lithium-ion cell that includes combined ageing mechanisms:

Electrochemical formation of the solid electrolyte interphase (SEI) at the anode, breaking of the SEI due to mechanical stress from volume changes of the graphite particles, causing accelerated SEI growth, gas formation and dry-out of the electrodes, percolation theory for describing the loss of contact of graphite particles to the liquid electrolyte, formation of reversible and irreversible Li plating.


The electrochemistry is coupled to a multi-scale heat and mass transport model based on a pseudo-3D approach.

A time-upscaling methodology is developed that allows to simulate large time spans (thousands of operating hours). The combined modeling and simulation framework is able to predict calendaric and cyclic ageing up to the end of life of the battery cells. The results show a qualitative agreement with ageing behavior known from experimental literature.

Serena has a Bachelor in Chemistry and a Master's in Forensic Chemistry from the University of Torino. She worked in Spain, the Politécnico de Torino and in Greece (there she was Marie Curie fellow at the Foundation for Research and Technology - Hellas) before she decided to spend time in Australia and India.



References Serena's Linked in site A. Latz & J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. T. Seger: Elliptic-Parabolic Systems with Applications to Lithium-Ion Battery Models, Doktorarbeit Universität Konstanz, 2013. M. Kespe & H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. J.-M. Tarascon & M. Armand: Issues and challenges facing rechargeable lithium batteries, Nature 414 359-367, 2001. W.G. Bessler: Elektrische Energiespeicherung mit Batterien und Brennstoffzellen, Forschung im Fokus, Hochschule Offenburg (2018).

Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Auinger: Optimale Akkuladung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Elastoplastizität

Jul 4, 2019 45:54

Description:

Gudrun spricht mit Lydia Wagner über Elastoplastizität. Lydia hat im Rahmen ihrer im Mai 2019 abgeschlossenen Promotion Versetzungen in kristallinen Festkörpern numerisch simuliert.

Elastizität beschreibt die (reversible) Verformung von Festkörpern unter Belastung. Bei zu großer Belastung reagieren Materialien nicht mehr elastisch, sondern es entstehen irreversible Deformationen. Das nennt man Plastizität. Im Rahmen der Kontinuumsmechanik wird die Deformation durch ein Kräftegleichgewicht basierend auf der Impuls- und Drehimpulserhaltung modelliert. Die konkreten Eigenschaften des Materials werden hierbei über eine spezifische Spannungs-Dehnungs-Relation berücksichtigt. Dabei tritt Plastizität auf, wenn im Material eine kritische Spannung erreicht wird. In klassischen phänomenologischen Plastizitätsmodellen der Kontinuumsmechanik wird dieses Verhalten über eine Fließbedingung in Abhängigkeit der Spannung modelliert. Diese wird durch eine Fließregel und ggf. eine Verfestigungsregel ergänzt, die das plastische Materialverhalten nach Erreichen der Fließgrenze beschreiben.

Plastizität ist ein physikalischer Prozess, der auf Kristallebene stattfindet. Ein kristalliner Festkörper wird plastisch verformt, wenn sich eindimensionale Gitterfehler – Versetzungen – durch Belastung im Kristallgitter bewegen, d. h. wenn sich die atomaren Bindungen umordnen. Durch Mittelungsprozesse kann dieses diskrete Verhalten in einem Kontinuumsmodell, dem Continuum dislocation dynamics (CDD) Modell, beschrieben werden. Eine numerische Realisierung von diesem erweiterten Modell und die Evaluation im Vergleich zu diskreten Simulationen ist die Themenstellung der Dissertation von Lydia.

Die Physik erarbeitete sich Lydia in Zusammenarbeit mit Materialwissenschaftlern und Ingenieuren in der DFG-Forschergruppe Dislocation based Plasticity am KIT.



Literatur und weiterführende Informationen C. Wieners: Effiziente numerische Methoden in der Elasto-Plastizität, Vortragsfolien. P.M. Anderson, J.P. Hirth, J. Lothe: Theory of dislocations Cambridge University Press, New York, 2017, ISBN: 978-0-521-86436-7 T. Hochrainer et al.: Continuum dislocation dynamics: Towards a physical theory of crystal plasticity Journal of the Mechanics and Physics of Solids, 63, 167–178,2014. doi:10.1016/j.jmps.2013.09.012 K. Schulz, L. Wagner and C. Wieners: A mesoscale continuum approach of dislocation dynamics and the approximation by a Runge-Kutta discontinuous Galerkin method International Journal of Plasticity. doi:10.1016/j.ijplas.2019.05.003

Podcasts J. Fröhlich: Poroelastische Medien, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 156, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. August: Materialschaum Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 037, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Verkehrsoptimierung

Jun 27, 2019 41:06

Description:

Gudrun spricht in dieser Folge mit Simone Göttlich über Verkehrsoptimierung. Die Verabredung zum Gespräch war im März am Rande einer Tagung in Bonn erfolgt. Am 23. Mai 2019 war Gudrun dann einen Tag zu Gast in der Arbeitsgruppe von Simone an der Universität in Mannheim. Im Sport starten sie gemeinsam unter dem doppeldeutigen Namen "Team Göttlich".

Verkehr erleben wir täglich zu Fuß, im Auto, auf dem Fahrrad oder im ÖPNV. Wir haben oft das Gefühl, dass einiges besser geregelt sein könnte, um den Verkehrsfluss zu verbessern. In der Stadt vermischen sich viele unterschiedliche Fragen sehr komplex, da viele unterschiedliche Verkehrsmittel um den Raum konkurrieren. Auf der Autobahn kann man sich auf den Autoverkehr konzentrieren. Aber auch dort muss das unterschiedliche Verhalten von schnell fahrenden Autos und langsamen Lastwagen berücksichtigt werden. Außerdem beeinflussen auch Auf- und Abfahrten die Durchlässigkeit der Autobahnspuren.

Es gibt also viele Fragen und Probleme im Zusammenhang mit Verkehr. Ihre Beantwortung kann allen das Leben erleichtern und Kosten erheblich senken.

Das Gespräch mit Simone beginnt beim Thema Daten. Wie viele Autos, Personen und Fahrräder bestimmte Strecken zu bestimmten Zeiten nutzen, wird stichprobenhaft recht genau gezählt. Zu einigen Zeiten fließt der Verkehr gut, aber z.B. zur sogenannten Rushhour kommt er ins stocken. Die gezählten Daten fließen in Verkehrsprognosemodelle beispielsweise für Routenplanung ein. Wir rufen dann einfach eine App auf und lassen uns die besten Routen vorschlagen. Für jede wird von der App eine voraussichtliche Reisedauer geschätzt. Für Autobahnverkehr werden außerdem auch ganz aktuelle Daten ergänzt. Um gemeldete Staus aber auch um die Verkehrsdichte auf besonders wichtigen Autobahnabschnitten, wo das automatisiert beobachtet wird. Als ein Beispiel dient im Gespräch von Gudrun und Simone die Autobahn A5 in der Nähe von Frankfurt, wo schon lange Jahre eine Anzeige gute Dienste leistet, die bei Einfahrt in den Ballungsraum die aktuell zu erwartende Fahrtzeit zu markanten Punkten wie beispielsweise dem Flughafen angibt. Als jemand, der sein Flugzeug erreichen muss, kann man dann ruhiger durch den dichten Verkehr reisen und sich an die reduzierte Höchstgeschwindigkeit halten, da man Planungssicherheit hat. Als Nebeneffekt senkt dies die Unfallwahrscheinlichkeit, weil auf hektische Überholmanöver verzichtet wird.

Effekte, die man mit Verkehrsflußmodellen simulieren möchte sind erwartbare Engpässe beim Einziehen von Fahrspuren oder auch der sogenannte Stau aus dem Nichts, der bei hoher Verkehrsdichte auftreten kann. Wir alle wissen, dass auf Autobahnen Geschwindigkeitseinschränkungen auf Baustellen vorbereiten, um das Einfädeln der Spuren zu vereinfachen. Wenn der Verkehr dicht genug ist, breitet sich die Störung, die beim Einfädeln entsteht, entgegen der Fahrtrichtung wie eine Schockwelle aus. Das ist eine Beobachtung, die sicher alle schon einmal gemacht haben. Für das Modell heißt das aber, dass es geeignet sein muss Schockwellen als Lösungen zuzulassen.

Traditionell gibt es sogenannte mikroskopische und makroskopische Modelle für Verkehr. In den Ersteren schaut man die Fahrzeuge einzeln in ihrem typischen Verhalten an. Die Modelle beruhen auf der Idee des zellulären Automaten. In den makroskopischen Modellen sieht man als wesentlichen Vorgang das Fließen und charakterisiert das Verkehrsgeschehen mit den Variablen Dichte und Fluss. Man kann recht schnell ein erstes Modell aufstellen, indem man folgende elementare Beobachtungen:

wenn kein Verkehr ist, ist der Fluß Null (Dichte Null -> Fluß Null) wenn die Dichte maximal ist, stehen alle im Stau und der Fluß Null

mit Hilfe einer konkaven Funktion des Flusses in Abhängigkeit von der Dichte verbindet. Diese hat ein Maximum für eine gewisse Dichte. Die entspricht auch einer Geschwindigkeit des Verkehrsgeschehens, die man mit Bezug auf den besten Fluß als Optimum ansehen kann.

Komplexere Modelle nehmen die Masseerhaltung als Grundlage (Autos bleiben in der Summe erhalten) und führen auf die sogenannte Transportgleichung, die hyperbolisch ist. Hyperbolische Gleichungen haben auch unstetige Lösungen, was dem Verkehrsgeschehen entspricht, aber ihre Behandlung schwieriger macht.

In der Numerik muss auf die besonderen Eigenschaften Rücksicht genommen werden. Das erfolgt beispielsweise über die sogenannte CFL-Bedingung, die Zeit- und Raumdiskretisierung koppelt. Oder man benutzt Upwind-Schemata für finite Differenzen. Am besten angepasst an hyperbolische Probleme sind jedoch Finite Volumen Verfahren. Sie arbeiten mit der Approximation des Flusses über deren Ränder von Zellen.

Simone hat Wirtschaftsmathematik in Darmstadt studiert und anschließend in Kaiserslautern promoviert. Als Akademische Rätin blieb sie einige Jahre in Kaiserslautern und hat sich dann dort auch habilitiert. Seit 2011 ist sie Mathematikprofessorin an der Universität Mannheim am Institut für Wirtschaftsinformatik und Wirtschaftsmathematik.



Literatur und weiterführende Informationen J. Kötz, O. Kolb, S. Göttlich - A combined first and second order traffic network model - preprint, March 2019. M. Burger, S. Göttlich, T. Jung - Derivation of second order traffic flow models with time delays Networks and Heterogeneous Media, Vol. 14(2), pp. 265-288, 2019. U. Clausen, C. Geiger: Verkehrs- und Transportlogistik VDI-Buch, 2013. ISBN 978-3-540-34299-1 M. Treiber, A. Kesting: Verkehrsdynamik Springer, 2010. ISBN 978-3-642-32459-8

Podcasts P. Vortisch, G. Thäter: Verkehrsmodellierung I, Gespräch im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. U. Leyn, G. Thäter: Verkehrswesen, Gespräch im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Nökel, G. Thäter: ÖPNV, Gespräch im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. T. Kretz, G. Thäter: Fußgängermodelle, Gespräch im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Research Software Engineering

Jun 20, 2019 1:59:37

Description:

Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research!


Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln.

Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten.

Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen.

Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden.

Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte.

Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten.


Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? Auf jeden Fall hätte die Veröffentlichung schon frühere Diskussionen und Verbesserungen der Ergebnisse ermöglicht, da abgeleitete Arbeiten statt der geschriebenen Darstellung auf den echten Daten ihre erweiterten Analysen hätten durchführen können.

Soweit die Theorie, praktisch muss man sich eingehend damit befassen, was genau erforderlich ist, um eine Reproduzierbarkeit schon auf Seiten der Daten und Software zu ermöglichen. Das Befassen mit diesen Themen führt von einer Erstellung einer Publikation zum Begriff der Open Science oder offener Wissenschaft, die unter anderem Open Access, Open Data als auch Open Source betrifft. Hier konzentriert sich Carina in ihrer Forschung besonders auf den letzten Teil, insbesondere wie Erkenntnisse aus der Softwaretechnik dazu beitragen können, dem großen Ziel der Reproduzierbarkeit auch über die Zeit hinweg zumindest näher zu kommen.

Wichtig ist auch den Entstehensprozess von Software zu betrachten. Die Fernseh-Show Bares für Rares demonstriert, wie die Wertigkeit eines Objekts durch eine nachgewiesene Herkunft signifikant beeinflusst wird. Dies erfolgt durch Nachweis der sogenannten Provenience. Der Begriff Provenience bedeutet die Aufzeichnung der Geschichte der Entstehung eines Objektes. Dies läßt sich auf Software übertragen. Die Wertigkeit und Qualität von einer Software-Publikation könnte zum Beispiel dadruch evaluiert werden indem der Build- und Entwicklungsprozess aufgezeichnet, und mit dem PROV W3C-Standards dokumentiert.

Neben der Dokumentation liegt der nächste Schritt für reproduzierbare Software (vgl. E. Heitlinger: Reproduzierbarkeit – Wissenschaftliche Arbeit als Software-Projekt) darin, die erforderlichen zusätzlichen Bestandteile auch zur Verfügung zu stellen. Die nachhaltige Softwareentwicklung befasst sich in besonderem Maße damit, dass die Software von anderen sowohl genutzt als auch in Zukunft weiterentwickelt werden kann. Natürlich sollten wissenschaftliche Veröffentlichungen grundsätzlich die Wissensgewinnung und Validierung genau beschreiben, nur ist dies im gängigen Rahmen und Form normaler Publikationsformen weder in Form noch im Umfang abzubilden. Daher fordern viele Journals und Konferenzen, die Daten und Methoden in der Form von ausführbaren, web-basierten Jupyter Notebooks zur Verfügung zu stellen.

Ein neuer Ansatz ist eine "Software Zitierbarkeit" zu ermöglichen, also sowohl die Form mit Weblinks und Versionierung, also auch mit Infrastruktur wie dem Dienst Zenodo, das einen Digital Object Indentifier (DOI) für Software mit einem Langzeitarchiv bereitstellt. Das ist ein Service, der in etwas weniger spezialisierter Form für unterschiedliche Medien auch von vielen Hochschulbibliotheken angeboten wird.

Am DLR widmet sich die Software Engineering Initiative mit vielen Ansätzen, um Forschenden zu helfen nachhaltige Software zu entwickeln. Ein wichtiger Bestandteil sind hier Trainings, wie beispielsweise Repositories verwendet werden sollten:

Hinweise für sinnvolle Commit-Messages verwenden. Wie sollten Versionen vergeben werden? Neben den eigentlichen Sourcen sollte auch der Build-Prozess und Testdaten im Repository sein Sinnvolle Struktur von Dateibäumen und sprechende Bennenung von Dateien Jedes Repository sollte eine README-Datei haben, die am Anfang kurz die Funktion der Sourcen beschreibt und in welchem Scope und in welchen Constraints die Ziele erreicht werden sollen, wie sie installiert, ausgeführt und getestet wird und wie sollte die Software zitiert werden? Unter welcher Lizenz steht die Software?

Unterstützung gibt es auch durch zentrale Infrastruktur, die vom DLR beispielsweise durch eine eigene GitLab bald zur Verfügung stehen wird, und allen Forschenden einen eigenen persönlichen Bereich anbieten, sowie Projekten sofort entsprechende Strukturen bereitstellen.

Die im Gespräch erwähnte SHA1-Kollision Shattered hatte einen Stillstand der für mehrere Browser grundlegende WebKit-Entwicklung zur Folge, da deren Subversion-Repository nicht mit der Hash-Kollision zurecht gekommen ist.

Es gibt vielseitige Motivationsgründe für Forschende die Unterstützung der Software Engineering Initiative anzunehmen: Entweder sind sie aus einem füngeren universitären Umfeld schon mit der Thematik vertraut, oder haben Probleme durch fehlene Softwarequalität schon kennengelernt, lassen sich von Beispielen überzeugen oder Qualitätsanforderungen überreden, oder es wird ihnen durch Vorgesetzte nahe gelegt.

Ein Mittel zur Motivation sind insbesondere die am DLR entwickelten Software Engineering Guidelines, die Kolleginnen und Kollegen zur Verfügung gestellt werden können. Darin sind sowohl Begründungen für das Vorgehen, aber auch einfach zur verfolgende Entscheidungsbäume und Checklisten, die je nach Größe und Kritikalität von Projekt unterschiedlich aufwendige Empfehlungen vorschlagen. Dies kann von einer TODO-Datei bis zur Integration eines vollständigen Issue-Tracker gehen, der in der höchsten Qualitätsstufe auch mit dem kompletten Code-Management integriert werden sollte. Diese Guidelines sind am DLR in eine Qualitätsinitiative integriert, bei der in jedem Institut ein Qualitätsbeauftragter oder eine Qualitätsbeauftragte zumindest erfassen sollte, warum bestimmte Empfehlungen nicht entsprochen wird, oder idealerweise das Institut dabei dazu zu motivieren diese einfach genau so umsetzen.

Die erforderliche Bereitstellung digitaler Infrastruktur durch Organisationen spielt für Hochschulen neben den Bereichen des Software Engineerings auch in der Lehre eine wichtige Rolle:

"Wenn technische Möglichkeiten wie Vorlesungsaufzeichnungen auch im Rahmen obligatorischer Lehrveranstaltungen genutzt werden sollen, müssen Hochschulen daher auch aus datenschutzrechtlichen Gründen entweder eine eigene Infrastruktur aufbauen oder datenschutzkonforme Dienstleistungen gegen Entgelt in Anspruch nehmen."
A. Lauber-Rönsberg in Videocampus Sachsen – Machbarkeitsuntersuchung.

Was alles bei der Nutzung mit Software-Repositories am Beispiel von GIT passieren kann, erzählt Sujeevan Vijayakumaran im GPN19-Vortrag Dämliche Dinge mit git anstellen.


Grundlage für viele Aktivitäten der Software Engineering Group basieren auf Software Carpentries, beispielsweise mit einer GIT Einführung, die auch auf die Nachhaltigkeit abzielt.

In der Helmholtz-Gesellschaft wurde das HIFIS-Projekt (Helmholtz Infrastructure for Federated ICT Services) gestartet, um die Initiativen und Erfahrungen in der Bereitstellung von Infrastrukturen innerhalb der Helmholtz Gesellschaft zu bündeln. Hier geht es nicht nur um den Betrieb der Software, sondern auch um das Training für die Services und im Allgemeinen. Dazu sollen Communities für Software Engineering und weiteren Themen gebildet werden, damit der Austausch über Erfahrungen und Wissen leichter ablaufen kann.

Die Initiativen im Bereich der Research Software Engineers werden im neu gegründeten Verein DE-RSE e.V. gegründet, der vom 4.-6. Juni im Potsdam die erste
Konferenz für ForschungssoftwareentwicklerInnen in Deutschland deRSE19 veranstaltet. Der Ursprung dieser Initiative liegt im WSSSPE Workshop (Working towards sustainable software for science: practice and experiences) und der Konferenz der Research Software Egineers Association. Die #deRSE19 wird auch besonders durch die TIB, dem Leibniz-Informationszentrum, Technik und Naturwissenschaften, Universitätsbibliothek, unterstützt.

In der Zukunft muss es auch darum gehen, Infrastrukturen bereit zu stellen, über gute Verfahren zu informieren und auch Anreize für Forschenden zu schaffen, die verschiedenen Ansätze aufnehmen. Der Verein und das HIFIS-Projekt möchten hier mit unterschiedlichen Ansätzen dazu beitragen die Situation zu verbessern, und insbesondere die aktuelle Dynamik in Richtung Open Journals, Open Data, Open Source und Open Science zu nutzen.

Für einzelne Gruppen und Instituten sollte die Wichtigkeit sich mit Open Source Lizenzen nicht unterschätzt werden: Es kann sonst zu Inkopatibilitäten zwischen verschiedenen Lizenzen kommen, oder es fehlen Einverständniserklärungen von einzelnen, nicht vertraglich verbundenen Personen. Diese können beispielsweise Studierende sein, die im Rahmen einer Abschlussarbeit an einem Projekt mitgearbeitet haben. Hier muss ein Contributor Licence Agreement bereit sein, die von sonst nicht vertraglich gebunden Beitragenden unterschrieben werden kann.




Literatur und weiterführende Informationen C. Haupt, T. Schlauch: The Software Engineering Community at DLR—How We Got Where We Are, Proceedings of the Workshop on Sustainable Software for Science: Practice and Experiences (WSSSPE5. 1), 2017. A. Schreiber, C. Haupt: Raising awareness about open source licensing at the German aerospace center, 2018 IEEE Aerospace Conference. IEEE, 2018. D. A. Almeida, G. C. Murphy, G. Wilson, M. Hoye: Do software developers understand open source licenses?, Proceedings of the 25th International Conference on Program Comprehension (pp. 1-11), IEEE Press, 2017. R. Krishnamurthy, M. Meinel, C. Haupt, A. Schreiber, P. Mäder: DLR secure software engineering: position and vision paper. Proceedings of the 1st International Workshop on Security Awareness from Design to Deployment (pp. 49-50). ACM, 2018.

Podcasts M. Fromm, K. Förstner: Open Science Radio C. Haupt, S. Janosch, K. Förstner: Voices from de-RSE Conference 2019, Open Science Radio, OSR171, 2019. C. Haupt, S. Druskat, K. Förstner: de-RSE Association and Conference for Research Software Engineers in Germany, Open Science Radio, OSR140, 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017.



GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering
GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter
GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Propensity Score Matching

Jun 13, 2019 1:09:59

Description:

Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen.

Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin.

Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben.

Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen.

Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können.

Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden.

Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), das eine Vielzahl Verfahren und Algorithmen zur Verfügung stellt. Die im Laufe der Arbeit entwickelten Verfahren finden sich im Github Repository zu den Analyseverfahren.


Die Analyse des Observationsdatensatz ergab nun Risikoraten von 15.6% bis 11.5% für Nierenversagen. Dies muss aber nicht bedeuten, dass die eine Therapie immer der anderen Therapie vorzuziehen ist, da viele Kriterien für die Wahl einer Therapie einbezogen werden müssen. In der personalisierte oder prädiktiven Medizin wird versucht, an Hand von Observationsanalysen sogar weitergehende Therapiehinweise in Abhängigkeit von Confoundern der einzelnen Patienten zu geben.

Den Anstoß für den Data Science Phil Podcast fand Philipp in einem Aufruf vom YouTuber Martin Jung. Im englisch-sprachigen Podcast geht es um grundlegende Verfahren der Data Science, aber auch um weiterführende Themen, die er auf Konferenzen mit Gästen diskutiert.


Literatur und weiterführende Informationen P. R. Rosenbaum, D. B. Rubin, Donald B: The Central Role of the Propensity Score in Observational Studies for Causal Effects, Biometrika. 70 (1): 41–55 , 1983. J. Pearl: Causality: Models, Reasoning, and Inference , Cambridge University Press, 2019. D. Ho, K. Imai, G. King, E. Stuart: MatchIt - Nonparametric Preprocessing for Parametric Causal Inference, Journal of Statistical Software, 42(8), 1 - 28, 2011. D. Ho, K. Imai, G. King, E. Stuart: MatchIt: Nonparametric Preprocessing for Parametric Causal Inference, R-Module, 2018. E. A. Stuart: Matching Methods for Causal Inference: A review and a look forward, Statistical Science 25(1): 1-21, 2010. Research Gate Profil von Philipp Packmohr Github Profil von Philipp Packmohr Science Days im Europapark Rust Data Science Blog von Philipp Packmohr stamats von Prof. Dr. Matthias Kohl
Podcasts Data Science Phil Podcast P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. I. Hinneburg: EbPharm-Magazin im September, Adjustierung in epidemiologischen Studien, Podcast Evidenzbasierte Pharmazie, 2017.



GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching
GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter
GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Zellkerne

Jun 6, 2019 57:48

Description:

Gudrun unterhält sich in dieser Folge mit Lennart Hilbert, dem Leiter des Hilbert Labs am KIT. Das Labor ist Teil des Instituts für Toxikologie und Genetik (ITG), einem multidisziplinären Zentrum für biologische und chemische Forschung am KIT. Lennart Hilbert ist außerdem Juniorprofessor für Systembiologie/Bioinformatik am Zoologischen Institut des KIT.

Das Thema von Lennarts Gruppe ist Computational Architectures in the Cell Nucleus. Das kann man auf zwei unterschiedliche Arten interpretieren. Einerseits untersucht Lennarts Gruppe den räumlichen Aufbau des Zellkerns mit Hilfe von Computern. Es heißt aber auch dass man aufgrund der dabei gewonnenen Erkenntnisse als Fernziel Datenverarbeitung mit Hilfe des Zellkernes als Informationsspeicher ermöglichen will.

Gudrun und Lennart haben sich im Rahmen eines Treffens des KIT-Zentrums MathSEE kennengelernt, das im letzten Gespräch vorgestellt wurde.

Mit der Hilfe von Super Auflösungs Mikroskopie schauen Lennart und seine Gruppe in das Innere von Zellkernen und sehen dabei dreidimensionale Bilder. Diese Bilder gleichen sie mit den Ergebnissen von den bisher standardmäßig durchgeführten Sequenzierexperimenten von Molekularbiologen ab. "Sehen" erfolgt mit empfindlichen Digitalkameras, deren Bilder geeignet gefiltert werden. Dabei ist eine einschränkende Randbedingung, dass die betrachteten Samples gegen Licht empfindlich sind, aber Licht für die visuelle Darstellung unabdingbar nötig ist - je kleiner die Details, desto mehr Licht.

Man kann sich unschwer vorstellen, dass zur Bearbeitung diese Art von Fragen Informatik, Physik, Biologie und Mathematik nötig sind. Damit sich im Rahmen der Zusammenarbeit alle einbringen können, ist es hilfreich, wenn die Methoden einfach und die Ergebnisse visuell unmittelbar verständlich sind.

Eine Grundannahme ist, dass die räumliche Organisation im Zellkern den Informationsflüssen aus der DNA-Sequenz entspricht. Die treibende Frage ist: Wie funktioniert Gensteuerung? Der betrachtete Regelkreis ist, dass die DNA als Bibliothek funktioniert. Aus einem Teil wird eine RNA-Kopie erstellt, sodass bestimmte Proteine hergestellt werden können. Diese Eiweiße aber steuern anschließend, welche Teile der DNA als nächstes gelesen werden (das schließt den Regelkreis).

In der Systembiologie untersucht man dies bisher in Form von Differentialgleichungssystemen auf einer Metaebene. Wie das aber passiert ist aber noch relativ unklar. Die Hoffnung ist: Neues Sehen hilft hier, neues zu lernen und hierfür ist neueste Technik hilfreich. Die Molekulare Ebene ist der Teil der Biologie, wo im Moment am meisten Neues passiert.

Lennart hat in Bremen Physik studiert und anschließend an der McGill University in Montréal in Physiologie promoviert. Hier hat er zum ersten Mal zwischen Theorie und Experiment in zwei Gruppen gleichzeitig gearbeitet. In Dresden am Zentrum für Systembiologie (Max Planck Institut für Molekulare Zellbiolgie und Genetik und Max Planck Institut für die Physik komplexer Systeme) konnte er als Postdoc weiterhin interdisziplinär arbeiten. Seit 2018 ist er am KIT tätig.

Lennart und seine Gruppe arbeiten mit Zebrafischen, Bakterienstämmen, Zeitreihenanalyse und anderen mathematischen Modellen. Sie benötigen hoch parallele Simulationen und Machine Learning (z.B. um Mikroskopie-Daten zu entrauschen und mehr Farben gleichzeitig darzustellen). Lennart drückt es im Gespräch so aus: "Ich hab keine Disziplin mehr, ich habe nur noch Fragen."

Die beiden Teile seiner Arbeit unterscheiden sich stark: Im Labor sind Gruppentreffen nötig, weil alle aufeinander angewiesen sind. Es wird viel geredet und präzise Handarbeit ist wichtig. In der theoretischen Arbeit ist man auf sich selbst angewiesen und es gibt weniger Interaktion.



Zebrafish blastula nucleus, DNA label is Hoechst 33342, single optical section
Any doubts #activematter is a relevant framework to understand nuclear and chromatin organization? Please look at this time-lapse. Zebrafish blastula nucleus, DNA label is Hoechst 33342, single optical section, recorded last night using @VisiTech_UK iSIM. @LennartHilbert, 16.3.2019



Literatur und weiterführende Informationen Y. Sate e.a.: Quantitative measurements of chromatin modification dynamics during zygotic genome activation, bioRxiv preprint, 2019. Lennart Hilbert: Stress-induced hypermutation as a physical property of life, a force of natural selection and its role in four thought experiments. Physical Biology 10(2):026001, 2013 Portrait of Science über Lennart Teil 1 Portrait of Science über Lennart Teil 2 A. Lampe: Hochauflösungsmikroskopie, Die kleinen Dinge, ScienceBlogs, 2017. A. Lampe: Es sind die kleinen Dinge im Leben, 33c3, 2016.

Podcasts T. Hagedorn, G. Thäter: MathSEE, Gespräch im Modellansatz Podcast, Folge 205, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.

MathSEE

May 30, 2019 45:23

Description:

Gudrun spricht in dieser Folge mit Tanja Hagedorn, die Geschäftsführerin des KIT-Zentrums MathSEE ist. Das Karlsruher Zentrum für Technologie (KIT) besteht aus sehr vielen Instituten, die in fünf thematischen Bereichen zusammengeschlossen sind. Andererseits gibt es die eher horizontal durch alle Bereiche hindurch sortierenden Gremien, die KIT-Zentren heißen. Hier sind Forscherinnen und Forscher Mitglied und es "werden Fragestellungen, die von fundamentaler Bedeutung für die Existenz und Weiterentwicklung der Gesellschaft sind oder die aus dem Streben nach Erkenntnis resultieren, bearbeitet." ( lt. Webseite). Sieben solche Zentren gibt es seit Gründung des KITs:

Energie Information · Systeme · Technologien Mobilitätssysteme Elementarteilchen- und Astroteilchenphysik Klima und Umwelt Materialien Mensch und Technik

Allerdings gab es ursprünglich kein Thema, unter dem die vielen Aktivitäten, die die Mathematik am KIT für die Gesellschaft leistet (und die auch nicht nur in der KIT-Fakultät für Mathematik stattfinden), ein Zuhause finden könnte. Deshalb entstand der Wunsch nach einem passenden Zentrum im KIT.

Das KIT-Zentrum Mathematics in Sciences, Engineering, and Economics, kurz "MathSEE", gibt es nun seit Oktober 2018. In MathSEE kooperieren theoretisch-mathematisch und anwendungsorientiert arbeitenden Wissenschaftlerinnen und Wissenschaftler in gemeinsamen Forschungsprojekten. Aufgabe von MathSEE ist es auch, diese Forschung nach außen hin sichtbar zu machen sowie neue interdisziplinäre mathematische Forschung am KIT zu fördern. Da gilt es vor allen Dingen auch, Vermittlung zwischen Großforschungs- und Universitätsbereich zu betreiben.

MathSEE bietet unter anderem eine Anschubförderung für neue interdisziplinäre Projekte] an, deren erste Ausschreibungsrunde gerade erfolgreich abgeschlossen wurde und die ersten sieben Projekte eine Förderung erhalten haben. Die nächste Bewerbungsfrist ist Ende Juni 2019.

Keimzelle von MathSEE war insbesondere der

Sonderforschungsbereich 1173: Wellenphänomene: Analysis und Numerik. Doch auch andere bestehende große Drittmittelprojekte in der Mathematik wie das Graduiertenkolleg 2229: Asymptotic Invariants and Limits of Groups and Spaces

bilden die Grundlage für die Entstehung von MathSEE. Sie haben dazu geführt, dass die besondere Stellung der Mathematik an der technischen Forschungseinrichtung KIT und die Forschungsstärke der Mathematik sichtbarer wurden. Die Initiative der Sprecherin Marlis Hochbruck hat die Gründung von MathSEE dann ins Rollen gebracht. Der engagierte Wissenschaftliche Sprecher von MathSEE, Prof. Martin Frank, ist in seiner Doppelrolle als Professor in der Mathematik und SCC-Direktor perfekt für die Aufgabe.

Um gezielter zusammen arbeiten zu können, ist MathSEE mit seinen momentan knapp 130 Mitgliedern weiter untergliedert in Methodenbereiche:

MB 1: Mathematische Strukturen: Formen, Geometrie, Zahlentheorie und Algebra MB 2: Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation MB 3: Inverse Probleme, Optimierung MB 4: Stochastische Modellbildung, statistische Datenanalyse und Vorhersage

Mitglieder arbeiten oft in mehreren Methodenbereichen mit. Die Methodenbereiche werden jeweils durch ein Paar interdisziplinär geleitet, d.h. eine Person aus der Mathematiker und eine Person aus einem anderen Forschungsbereich. Wichtig in MathSEE ist, dass insbesondere auch Promovierende Mitglied sein können und hier Kooperationspartner für Fragestellungen in ihrem Promotionsprojekt finden können. Für sie bietet die Graduiertenschule MathSEED außerdem ein umfassendes Qualifikationsprogramm an.

MathSEE fördert darüber hinaus zwei Veranstaltungsformate: In der

MathSEE Modellierungswoche

im August entwickeln Studierende Lösungsansätze zu aktuellen interdisziplinären mathematischen Fragestellungen von Problemstellenden aus MathSEE. Studierende erhalten dabei einen ersten Eindruck von der Forschung in angewandter Mathematik und die Problemstellenden können erste Ergebnisse erwarten. Bald wird auch ein

MathSEE ScienceSlam

stattfinden, da MathSEE versucht, auch für Mathematik bei einem größeren Publikum zu werben.




Literatur und weiterführende Informationen MathSEE Veranstaltungen und Termine

Podcasts M. Frank, G. Thäter: Kinetische Theorie, Gespräch im Modellansatz Podcast, Folge 152, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. Hattebuhr, K. Wohak, G. Thäter: Simulierte Welten, Gespräch im Modellansatz Podcast, Folge 179, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Monte-Carlo Simulationen

May 2, 2019 28:59

Description:

Gudrun spricht mit Alina Sage, die gerade eine Masterarbeit am Deutschen Krebsforschungszentrum in Heidelberg (DKFZ) abgeschlossen hat. Mit Mark Bangert, dem Leiter der Arbeitsgruppe dort hatte Gudrun vo einigen Monaten über die Physik der Strahlentherapie gesprochen. Auch mit Alina gibt es schon eine Folge im Modellansatz, denn sie hat über ihre Erfahrungen als Studienbotschafterin berichtet.

In der Masterarbeit von Alina geht es darum, die Unsicherheiten beim Bestrahlungsvorgang besser zu modellieren. In der Fachsprache heißt das noch recht junge Forschungsgebiet Uncertainty Quantification. Es gibt natürlich unterschiedliche Ursachen, die zu einer nicht punktgenauen Umsetzung des Bestrahlungsplanes für Patienten führen. Alina wählte daraus zwei, die ihr besonders wichtig erschienen:

dass der Strahl nicht aus einer Punktquelle kommt, sondern die Quelle um ein Zentrum herum streut dass der Patient nicht ganz exakt an dem Ort liegt, wie er in der Simulation angenommen wird, sondern etwas verschoben dazu.


Beide Prozesse lassen sich recht gut mit einer Normalverteilung beschreiben. Eine Normalverteilung wird durch eine glockenförmige Kurve dargestellt. Das Maximum ist der Wert, der als der wahrscheinlichste angenommen wird. Er heißt Erwartungswert. Wie stark die Prozesse von diesem Wert abweichen, ist in der Glockenkurve dadurch ausgedrückt, ob die Kurve steil zu diesem Maximum hin anssteigt und anschließend wieder fällt (dann weicht sie wenig ab) oder eher breit aussieht. Das wird im Parameter Varianz (oder Standardabweichung) ausgedrückt.

Um mit Hilfe von Simulationen die Unsicherheit zu beziffern, verwendet Alina das Instrument der Monte-Carlo-Simulation. Sie benutzt die Open source software TOPAS. Insbesondere heißt Monte-Carlo-Simulation, dass sie eine riesige Anzahl von möglichen Pfaden der Strahlungspartikel simulieren lässt, um dann aus Tausenden von solchen Verläufen eine Näherung für den Erwartungswert der im Gewebe deponierten Bestrahlungsdosis zu errechnen. Die Partikel folgen dabei jeweils einem Random Walk.

Im Prinzip muss man diese Simulationen für beide Prozesse machen, die mit ihrer Unsicherheit betrachtet werden.

Hier kommt Alina jedoch eine Eigenschaft der Normalverteilung zu Gute: wenn zwei normal verteilte Prozesse unabhängig voneinander einwirken, lässt sich die Summe ihrer Wirkungen in einem einzigen normal verteilten Prozess ausdrücken. D.h. hier, dass Alina für diesen Prozess nur einmal die Monte-Carlo-Simulation durchführen muss. Das spart extrem viel Rechenleistung ein.

Im Prozess der unabsichtlichen Verschiebung des Patienten um kleine Längen ist es insbesondere von Belang, wenn z.B. in der Nähe der Lunge bestrahlt wird. Fast alle Organe und Gewebe im Körper haben eine Dichte, die der von Wasser entspricht. Damit kann man den Weg der Partikel in Wechselwirkung mit dem Körper recht einfach modellieren. Wenn jedoch die Luft gefüllte Lunge auf dem Partikelweg ist, wird viel weniger Energie deponiert und das Partikel landet an einem Ort, der viel weiter von der Strahlungsquelle entfernt ist als für normales Gewebe. In diesem Fall kann man in der Bestrahlung z.B. den Hinweis geben, besonders auf Verschiebungsvermeidung in bestimmt gefährdete Richtungen zu achten.



Literatur und weiterführende Informationen H. Paganetti: Range uncertainties in proton therapy and the role of Monte Carlo simulation. Phys. Med. Biol. 7.06.2012 57(11). A.E. Feiguin: Monte Carlos error analysis online lecture course B. Bednarz, M. Engelsman, and H. Paganetti: Uncertainties and correction methods when modeling passive scattering proton therapy treatment heads with Monte Carlo. Phys Med Biol. 2011;56:2837–2854.

Podcasts M. Bangert, G. Thäter: Bestrahlungstherapie, Gespräch im Modellansatz Podcast, Folge 201, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.

Emmy Noether

Apr 25, 2019 59:37

Description:

Gudrun war im Dezember 2018 wieder zu Gast an der FU in Berlin. Schon zum dritten Mal ist Mechthild Koreuber ihre Gesprächspartnerin für den Podcast Modellansatz. Der Anlass des Gespräches war, dass im November 2018 unter dem Schlagwort Noethember die Mathematikerin Emmy Noether in den Fokus gerückt wurde. Auf unterschiedlichen Plattformen und in vielseitigen Formaten wurden die einzelnen Tage eines ganzen Monats der Darstellung ihres Lebens und Werks gewidmet. Für jeden Tag gab es Vorschläge für einzelne Stationen und Aspekte ihres Lebens, die in unterschiedlicher Art und Weise aufgenommen und dargestellt wurden. Unser Episodenbild entstand auch im Rahmen dieser Aktion und wurde uns von Constanza Rojas-Molina zur Verfügung gestellt.

Unser Podcast hat im Dezember etwas verspätet auch zum Noethember beigetragen. Die Veröffentlichung des zweiten der beiden aufgezeichneten Emmy-Noether-Gespräche hat nun einige Monate Abstand zum November 2018. Das hat einen guten Grund: im Gespräch geht es neben der Person Emmy Noether auch um die Idee einer Konferenz aus Anlass des 100. Jahrestages ihrer Habilitation. Die Details der Konferenz waren im Gespräch noch etwas vage, aber die im Dezember gemachten Pläne werden Anfang Juni in Berlin tatsächlich Realität. Für diesen Teil des Gespräches stieß Rupert Klein dazu.

Gudrun hatte sich im Rahmen des Noethember an Mechthild Koreuber gewandt, weil diese ein Buch über Emmy Noether und ihre Schule geschrieben hat, das 2015 im Springer Verlag erschienen ist. Schon beim ersten Gespräch zu Gender und Mathematik entstand der Plan, später eine Folge zu der Seite von Emmy Noether zu führen, die im Buch dargestellt wird. Nun gab es dafür zwei konkrete Anlässe, den Plan zu realisieren.

Was hat Mechthild so sehr an der Person Noethers fasziniert, dass sie sich viele Jahre mit der Person und der daraus entstandenen Schule beschäftigt hat neben ihren anderen beruflichen Aufgaben? Dabei hatte sie erst sehr spät im Mathematikstudium den Namen Emmy Noether zum ersten mal gehört. Schon damals faszinierte sie der Widerspruch zwischen der Leistung der Pionierin und ihrer Anziehungskraft auf den mathematischen Nachwuchs zur eigenen prekären Stellung im Wissenschaftsbetrieb und ihrer Außenseiterrolle als Frau. Sie wollte ergründen, woher das starkes Streben nach Wissen und dem Verbleiben in der Mathematik unter schwierigsten Bedingungen kam.

Der sehr berühmte und gestandene Kollege Hermann Weyl sagte selbst "Sie war mir intellektuell überlegen".

Am Beispiel Emmy Noethers schärft sich die Frage danach: was ist mathematische Produktivität, unter welchen Rahmenbedingungen kann sie entstehen, unterschiedliche Felder verbinden und ganz neue Theorierahmen für Mathematik entwickeln. Warum ist gerade Emmy Noether das gelungen? Im Umfeld von Noether gibt es weitere sehr interessante Frauen, die heute größtenteils fast vergessen sind wie Marie-Louise Dubreil-Jacotin, die erste französische Mathematikprofessorin. Sie war Schülerin bei Emmy Noether in Frankfurt am Main und Göttingen. Außerdem eine türkische Mathematikerin, die nach Deutschland kam um mit diesen Frauen zu arbeiten.

Es entsteht der Verdacht, dass sie als Außenseiterin im Feld der Wissenschaft tradierte Denkmuster nicht so leicht übernahm, weil sie auf ihrem eigenen Weg in die Wissenschaft ständig
Grenzen überschreiten musste. Um überhaupt Mathematik betreiben zu können, musste sie sich einen Platz definieren und erkämpfen, den es so noch nicht gab.

So konnte sie sogar in Feldern der Mathematik, in denen sie selbst nicht geforscht hat, revolutionäre Ideen einbringen. Beispiel hierfür ist die Topologie in Göttingen vertreten durch Brower und Alexandrow. Hier schuf sie die Betti Zahlen und lieferte den Kern für ein ganz neue Feld: Algebraische Topologie.

Sie lebte den Zusammenstoß von Denkstilen und eröffnete sich und anderen damit einen Raum für Kreativität. Davon möchten wir auch heute lernen. Unter den heutigen Bedingungen wäre es wichtig, mehr Brücken zu schlagen und Kreativität zu leben, die Wissensvorstellung verändern darf. Der Trend ist aber eher Kontrolle und Quantifizierung. Ein Ausweg aus diesem engen Korsett ist in Berlin der 2018 gegründete Mathematik-Cluster MATH+. Die Idee dahinter ist es, Mathematik in einen viel breiteren Kontext als Technik und Ökonomie zu setzen.

Dieses interdisziplinäre Gespräch wird auch die Noether Tagung möglich machen und insbesondere auch Wissenschaftsgeschichte sowie marginalisierte Perspektiven einbeziehen.
Dialogisches Arbeiten zwischen Mathematik und anderen Disziplinen soll in der Konferenz exemplarisch abgebildet und gelebt werden.

Für die Öffentlichkeit wird ein Theaterstück geschrieben und aufgeführt, das Mathematik ernst nehmen wird. Die Hoffnung der Organisator_innen ist, dass Personen, die skeptisch zu einer Sitzung der Konferenz gehen, begeistert wieder gehen.

Rupert Klein ist in seinen Worten ein "sehr angewandter Mathematiker", Er hat Maschinenbau studiert und in Potsdam Klimafolgeforschung betrieben. Inzwischen ist er an der FU in der Mathematik und arbeitet im SFB Skalenkaskaden mit Lebenswissenschaftlern und Physikern zusammen. Er ist im Vorstand des Mathe Clusters MATH+ und beteiligt am Schwerpunkt: Emerging Field: Concepts of Change.



Podcasts M. Pössel, G. Thäter: Noether-Theorem, Gespräch im Modellansatz Podcast, Folge 192, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Mischau, M. Koreuber, G. Thäter: Gender und Mathematik, Gespräch im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. In our time: Emmy Noether - M. Bragg and guests. BBC Radio 3, Sendung vom 24.01.2019 (archiviert)

Literatur und weiterführende Informationen Noether Konferenz im Juni 2019 in Berlin MATH+ M. Koreuber: Emmy Noether, die Noether-Schule und die moderne Algebra. Zur Geschichte einer kulturellen Bewegung, Heidelberg: Springer, 2015. James W. Brewer and Martha K. Smith (eds.), Emmy Noether: A Tribute to Her Life and Work Marcel Dekker, 1981. Auguste Dick (trans. H. I. Blocher), Emmy Noether 1882-1935 Birkhäuser, 1981. Israel Kleiner, A History of Abstract Algebra Birkhäuser, 2007. Yvette Kosmann-Schwarzbach (trans. Bertram E. Schwarzbach), The Noether Theorems: Invariance and Conservation Laws in the Twentieth Century Springer, 2010. Leon M. Lederman and Christopher T. Hill, Symmetry and the Beautiful Universe Prometheus Books, 2008.

Ressourcen zum #noethember Francesca Arici: Noethember - drawing a life Alle Bilder im Noethember von Constanza Rojas-Molina Noethember - ein ganzer Monat für Emmy Noether Der schönste Satz der klassischen Physik

Frequenzkämme

Apr 11, 2019 32:02

Description:

Gudrun traf sich zum Gespräch mit Janina Gärtner. Sie hat an der KIT-Fakultät Mathematik gerade ihre Promotion mit dem Titel "Continuation and Bifurcation of Frequency Combs Modeled by the Lugiato-Lefever Equation" abgeschlossen. Die Arbeit war Teil der Forschung im SFB 1173: Wellenphänomene und ist interdisziplinär zwischen Mathematik und Elektrotechnik entstanden. Im Zentrum stehen Frequenzkämme, die Janina theoretisch und praktisch betrachtete. Einerseits geht es um analytische Untersuchungen zur Existenz und Regularität von bestimmten Lösungen der zugehörigen Gleichung. Andererseits werden numerisch bestimmte Fälle gelöst, für die sich die Arbeitsgruppe in der E-Technik besonders interessiert.

Frequenzkämme sind optische Signale, die aus vielen Frequenzen bestehen und mehrere Oktaven überspannen können. Sie entstehen beispielsweise indem monochromatisches Laserlicht in einen Ringresonator eingekoppelt wird und die resonanten Moden des Ringresonators angeregt werden. Durch Mischung und aufgrund des nichtlinearen Kerr-Effekts des Resonatormaterials werden Frequenzkämme mit unterschiedlichen Eigenschaften erzeugt. Die mathematische Beschreibung des elektrischen Feldes innerhalb des Ringresonators erfolgt durch die Lugiato-Lefever Gleichung. Von besonderem Interesse sind dabei sog. Solitonen-Kerrkämme („Soliton Kerr Combs“ oder auch „Dissipative Kerr-Soliton Combs“), die aus im Resonator umlaufenden zeitlich und räumlich stark lokalisierten Solitonen-Impulsen entstehen. Solitonen-Kerrkämme zeichnen sich durch eine hohe Zahl an Kammlinien und damit eine große optische Bandbreite, durch geringes Phasenrauschen und durch eine hohe Robustheit aus.

Ausgangspunkt von Janinas Untersuchungen ist der Existenzbeweis von Soliton-artigen Frequenzkämmen für den Fall, dass die Dispersion positiv ist. Anschließend können die Parameterbereiche angegeben werden, für die das praktisch auftritt.

Mathematisch ist der erste Trick, dass man sich auf zeitlich konstante (stationäre) Lösungen beschränkt. Da örtlich nur eine Variable betrachtet wird, wird aus der partiellen eine gewöhnliche Differentialgleichung. Für diese Gleichung betrachtet Janina zunächst einen sehr einfachen Fall (sogenannte homokline Triviallösungen): Lösungen, die gegen eine Konstante streben. Die Gleichung wird dafür zunächst ohne Dämpfungs- und ohne Anregungsterme betrachtet. Es zeigt sich, dass die einzigen homoklinen Lösungen rein imaginär sind. Anschließend wird zuerst die Anregung hinzugenommen und mit Aussagen zu Eindeutigkeit und Verzweigungen können die Lösungen hier fortgesetzt werden. Selbst nach Hinzunahme der Dämpfung funktionieren noch Fortsetzungsargumente in einer gewissen Umgebung. Das passt aber gut zu der Idee, dass man die Verzweigungsstellen finden möchte.
Mit Hilfe der Software pde2path können analytisch alle Verzweigungspunkte bestimmt werden. Anschließend werden anhand von konkreten Beispielen alle primären Verzweigungen vom Ast der Triviallösungen bestimmt. Dies führt zu einer Karte von Lösungen und Stabilitätseigenschaften in der Phasen-Ebene, die sehr gut mit vereinfachten Stabilitätskriterien für nichtperiodische Lösungen übereinstimmt. Daraus werden Heuristiken zum Auffinden der im Zeitbereich am stärksten lokalisierten Frequenzkämme abgeleitet.

Janina hat ein Lehramtsstudium Mathematik/Physik am KIT absolviert. Als sie sich für ihre Zulassungsarbeit mit einem mathematischen Thema auseinandergesetzt hat, bekam sie Lust, die mathematische Seite ihrer Ausbildung zum Master Mathematik zu vervollständigen. Anschließend hat sie eine Promotionsstelle in der KIT-Fakultät für Mathematik angenommen, wo sie auch im Schülerlabor Mathematik tätig war. Mit der Gründung des SFB hat sie sich schließlich ganz auf das besprochene Forschungsthema konzentriert.



Literatur und weiterführende Informationen Herr, T. et al. Temporal solitons in optical microresonators. Nat. Photon. 8, 145–152, 2014. N. Akhmediev & A. Ankiewicz: Dissipative Solitons: From Optics to Biology and Medicine, Springer, 2008. Marin-Palomo, Pablo, et al.: Microresonator-based solitons for massively parallel coherent optical communications, Nature 546.7657: 274, 2017. Trocha, Philipp, et al. :Ultrafast optical ranging using microresonator soliton frequency combs, Science 359.6378: 887-891, 2018.

Podcasts A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Sobotta, H. Klein: Schülerlabore, Resonator-Podcast, Folge 59, Holger Klein/Helmholtz-Gemeinschaft, 2015.

Bestrahlungstherapie

Apr 5, 2019 43:58

Description:

Gudrun sprach im Janur 2019 mit Mark Bangert vom Deutschen Krebsforschungszentrum in Heidelberg. Er arbeitet dort seit vielen Jahren als Physiker in der medizinischen Physik. Sein Thema ist die Optimierung von Bestrahlungstherapien. Der Punkt, an dem sich die Arbeit von Mark und Gudrun seit Ende 2018 berühren, ist eine Masterarbeit von Alina Sage in der Bestrahlungsplanung. Ein Gespräch mit ihr werden wir ebenfalls bald veröffentlichen.

Es gibt viele und unterschiedliche Betätigungsfelder für Physiker in der medizinischen Physik, unter anderem in der Strahlentherapie oder Radiologie (CT- und MRI-Bildgebung). Marks Hauptaufgabe ist die Simulation und Optimierung von Strahlungsdosen die Tumor-Kranke appliziert bekommen, um die Nebenwirkungen zu minimieren und die Wirkung zu maximieren.

Die Modelle hierfür haben eine geometrische Basis und berücksichtigen den Strahlungstransport. Hier geht es um die Abschwächung und Auffächerung in Interaktion mit Haut und inneren Organen. Die Therapie an und für sich ist schon stark digitalisiert. Jede Krebstherapie startet mit einem CT-Bild. Basierend darauf wird ein digitales Patientenmodel entwickelt und segmentiert, um den Tumor abzugrenzen. Das Abgrenzen des Tumors leisten hauptsächlich die Mediziner, Methoden der automatischen Bilderkennung halten hier nur sehr langsam Einzug. Anschließend wird entschieden: Wo soll bestrahlt werden und wo soll möglichst viel Energie absorbiert werden - gleichzeitg aber auch: Wo muss man vorsichtig sein (z.B. Herz, Speiseröhre, Niere, Rektum usw.). Anschließend wird dann simuliert, wie Strahlung auf das digitale Modell des Patienten wirkt. Man kann die Dosis und die zeitliche, räumliche Verteilung der Strahlung variieren und optimieren. Das führt auf eine patientenspezifische Optimierung der Dosis-Gabe, die nur für häufig auftretende Tumore gut standardisierbar und automatisierbar ist.

Zeitlich hat sich bewährt, dass die Strahlung über 30 Tage in 6 Wochen verteilt verabreicht wird, da sich gesundes Gewebe so besser von der Strahlungsbelastung erholen kann.

Aber viele Probleme bleiben offen: Unter anderem können Patienten nicht ganz still halten, sondern müssen beispielsweise atmen. Deshalb bewegt sich der Tumor während der Bestrahlung. Der momentane Ausweg ist, dass man ein größeres Volumen rings um den Tumor markiert. Eine bessere Variante wäre, wenn die Strahlung nur eingeschaltet ist, sobald der Tumor im optimalen Fenster ist oder wenn der Strahl der Tumorbewegung folgt. Dadurch würden die Nebenwirkungen stark verringert. An solchen Fragen forscht Marks Gruppe bevor nach ausführlichen Qualitätssicherungsmaßnahmen derartige Neuerungen zur Standardbehandlung werden.

Bestrahlungshard- und Software werden zusammen entwickelt und mit vorhandener Bildgebung integriert. Auch diese Tools müssen verbessert werden, um immer genauer zu werden.

Der kranke Mensch ändert sich über den langen Behandlungszeitraum von bis zu 6 Wochen oft sehr stark und der Tumor erst recht. Es wäre also denkbar, den Bestrahlungsplan wöchentlich oder sogar täglich zu aktualisieren.

Mark hat in Heidelberg Physik studiert und promoviert und leitet eine Nachwuchsgruppe.

N. Wahl, P. Hennig, H.-P. Wieser, M. Bangert: Smooth animations of the probabilistic analog to worst case dose distribution
N. Wahl, P. Hennig, H.-P. Wieser, M. Bangert: Smooth animations of the probabilistic analog to worst case dose distribution, https://github.com/becker89/ESTRO2018

Literatur und weiterführende Informationen M. Bangert, P. Ziegenhain: Bestrahlungsplanung In: W. Schlegel e.a. (eds.): Medizinische Physik, Springer 2018. H. Gabrys e.a.: Design and selection of machine learning methods using radiomics and dosiomics for NTCP modeling of xerostomia, Frontiers in Oncology, Mar 5;8:35, 2018. doi: 10.3389/fonc.2018.00035. J. Unkelbach e.a.: Optimization of combined proton–photon treatments, Radiotherapy and Oncology, 128(1):133-138, 2018. doi: 10.1016/j.radonc.2017.12.031.

Podcasts L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Resonator-Podcast 015: DKFZ-Forscher Christof von Kalle, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2013. Resonator-Podcast 014: Das DKFZ in Heidelberg, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2013. Resonator-Podcast 069: Krebsmythen, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2015.

Gravitationslose Strömung

Mar 21, 2019 1:00:59

Description:

Gudrun ist zu Besuch an der ETH in Zürich und spricht dort mit Laura Keller. Laura hat an der ETH Mathematik und theoretische Physik studiert und wurde dort auch promoviert. Anschließend forschte und unterrichtete sie jeweils einige Jahre in Münster, Lausanne und Luzern. Heute arbeitet sie als Senior Scientist an Strömungsmodellen, wie sie in Anwendungen in der Biologie, z.B. im menschlichen Körper vorkommen. Hier gibt es ganz unterschiedliche biologische und medizinische Fragen. Bekanntlich enthält der menschliche Körper viel Wasser. Die Bewegung von Blut oder Gehirnflüssigkeit ist aber nicht wie die von Wasser, sondern u.a. durch im Fluid gelöste Zellen mitbestimmt, die mit der Flüssigkeit in unterschiedlich breiten Gefäßen transportiert werden. Auch Tumorwachstum lässt sich mit solchen Gleichungen studieren.

Wenn man eine konkrete Frage im Blick hat, muss man als nächstes entscheiden, was man genau erreichen will: braucht man ein Modell, mit dem man Beobachtungen im Prinzip nachvollziehen kann oder muss es ein Modell sein, das kalibriert ist und möglichst genau experimentelle Daten abbildet und Prognosen geben kann?

Im Einzelnen heißt das zu entscheiden, welche Effekte sind wichtig und werden in das Modell einbezogen? Beispielsweise kann man für eine partikelbehaftete Strömung sowohl Partikel als auch die Strömung gleichzeitig vollständig modellieren oder man homogenisiert beide zu einer Flüssigkeit mit Eigenschaften, die so ungefähr die wichtigen Eigenschaften der Mischung hat. Klassisch nimmt man hier gern Oldroyd-B-Modelle für Partikelströmungen, da sie sowohl ein elastisches als auch ein viskoses Strömungsverhalten zeigen. Sind gelöste Zellen aber solche Partikel oder nicht? Ein denkbarer Zugang, biologische in Flüssigkeit gelagerte Zellen zu untersuchen wäre es auch, mit den unterschiedlichen Dichten als Hauptinformation zu arbeiten. Es ist nicht so klar, wohin man am sinnvollsten vom Standardmodell abweicht, um die Modelle realitätsnäher zu machen.

Laura kommt aus der geometrischen Analysis und macht deshalb besonders gern die Arbeiten zur prinzipiellen mathematischen Absicherung von Modellen. D.h. sie beweist in ihren Arbeiten Existenz, Eindeutigkeit und Regularität von Lösungen der sehr nichtlinearen Gleichungssysteme. Mathematisch ist es immer hilfreich, wenn man im Modell bestimmte Struktureigenschaften wie Symmetrie oder Energieminima ausnutzen kann.

Ein wichtiges Thema sind für sie Strömungen ohne Gravitation. Im Experiment kann man z.B. einen horizontalen Zylinder betrachten und durch eine Drehbewegung um die Symmetrieachse die mittlere Gravitation zum verschwinden bringen. Die publikumswirksamen Anwendungen sind hier Probleme mit Muskeln und Bandscheiben im Weltall. Allerdings sind physiologische Befunde für bettlägerige Personen ähnlich wie die für Personen im Weltall, denn denen fehlt der für ihren Bewegungsapparat wichtige Wechsel zur Gravitationsrichtung über den Verlauf des Tages hinweg.

Gudrun und Laura lassen den Blick über unterschiedliche Themenfelder und Aufgaben in der biologischen Mathematik für ganz verschiedene mathematische Felder schweifen und sind sich schließlich einig, dass es auf dem Gebiet für unterschiedlichste mathematische Techniken noch sehr viele spannende ungelöste Fragen gibt. Außerdem finden sie es wichtig, eine Arbeitskultur zu schaffen, in der jede/r mit Fragen willkommen ist- sowohl für die Studierenden als auch im Kollegium.



Literatur und weiterführende Informationen L.G.A. Keller: Homogenization and concentrated capacity for the heat equation with two kinds of microstructures: Uniform cases. Annali di Matematica Pura ed Applicata 196(3), 791-818, 2017. https://people.math.ethz.ch/~triviere/pdf/pub/keller-mondino-riviere-22-05-13.pdfL. Keller e.a.:Embedded surfaces of arbitrary genus minimizing the Willmore energy under isoperimetric constraint] Arch. Ration. Mech. Anal. 212, 645-682, 2014. L.Tartar: The General Theory of Homogenization: A Personalized Introduction. Springer, Heidelberg, 2009.

Podcasts X. Liao, G. Thäter: Nonhomogenous Fluids, Gespräch im Modellansatz Podcast, Folge 189, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. E. Rognes, G. Thäter: Cerebral Fluid Flow, Gespräch im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Khrabustovskyi, G. Thäter: Homogenization, Gespräch im Modellansatz Podcast, Folge 116, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Methan

Mar 7, 2019 51:48

Description:

Gudrun traf sich im Februar 2019 mit Jennifer Schröter und Christian Scharun vom Institut für Meteorologie und Klimaforschung - Atmosphärische Spurengase und Fernerkundung zum Gespräch.

Christian, Sebastian und Gudrun waren auf dem ersten Treffen des MATHSEE-Methodenbereichs Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation ins Gespräch gekommen und hatten ein baldiges Podcastgespräch verabredet. Christian holte noch seine Kollegin Jennifer ins Boot und im Februar 2019 saßen die drei (ohne Sebastian) in Gudruns Büro, um sich über die Weiterentwicklung von Klimamodellen zu unterhalten.

Das Wetter und das Klima werden durch Vorgänge in der Erdatmosphäre in der Kopplung mit Wärme- und Wassertransport in den Ozeanen bestimmt. Auch der Mensch hat darauf einen Einfluss. Zum ersten Mal wurde das wahrscheinlich durch die Entstehung des Ozon-Loches ins breite Bewußtsein geholt. Im Projekt, für das Christian arbeitet, geht es u.a. darum, mit einem Computermodell nachzubilden, inwieweit austretendes Methan (ein Spurengas, das z.B. an Erdgas-Bohrlöchern auftritt) einen Einfluss auf die Entwicklung des Klimas nehmen kann. Grundlage hierfür sind sehr genaue Messungen und die Weiterentwicklung des Computermodells. Im Modell werden Strömungs-, Strahlungs- und chemische Prozesse berücksichtigt. Es wird in enger Zusammenarbeit mit dem Deutschen Wetterdienst (DWD), dem Max-Planck-Institut für Meteorologie Hamburg (MPI-M) und dem Deutschen Klimarechenzentrum (DKRZ) entwickelt. Das Modell wird zur täglichen Wettervorhersage wie auch Klimaprognosen verwendet. Die Gruppe Globale Modellierung MOD des IMK-ASF fügt ein Modul zur Simulation der atmosphärischen Chemie vom Boden bis in die mittlere Atmosphäre hinzu.

Das Thema ist in sich fächerübergreifend, weil physikalische und chemische Prozesse verstanden werden müssen und auf den modernsten Großcomputern simuliert werden. Christian hat sein Lehramtsstudium mit dem ersten Staatsexamen für die Fächer Geographie und Mathematik abgeschlossen. Jennifer ist promovierte Physikerin und seit einigen Jahren Hauptenwicklerin für chemische Prozesse in ICON-ART. Als ein wichtiges Produkt der Arbeit der Gruppe sieht sie auch an, Daten, die bei der Berechnung entstehen, der Öffentlichkeit in einer nutzbaren Art zur Verfügung zu stellen. In den Punkten der Modellentwicklung, Performanceverbesserung und Bereitstellung von Forschungsdaten arbeitet sie mit dem Rechenzentrum des KITs, dem Steinbuch Center for Computing eng zusammen.



Literatur und weiterführende Informationen J. Schröter et al.: ICON-ART 2.1: a flexible tracer framework and its application for composition studies in numerical weather forecasting and climate simulations, Geoscientific model development 11, 4043–4068, 2018. Helmholtz-Projekt Digital Earth

Podcasts S. Hemri, G. Thäter: Ensemblevorhersagen, Gespräch im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Wendisch, M. Voelter: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. B. Weinzierl, T. Pritlove: Die Atmosphäre, Raumzeit Podcast, Metaebene Personal Media, 2011.

Nutzerkomfort

Mar 1, 2019 1:05:32

Description:

Gudrun unterhält sich in dieser Episode mit Marcel Schweiker. Marcel arbeitet in der KIT-Fakultät für Architektur im Fachgebiet Bauphysik & Technischer Ausbau. Die Gruppe schlägt in ihren Themen Brücken zum Bauingenieurwesen, dem Maschinenbau und der Psychologie. Sie interessieren sich für Lösungen im Neubau und Bestand, die langfristig hohen Nutzungskomfort mit niedriger Umwelt- und Ressourcenbelastung verbinden.

Marcel hat Architektur in Kassel studiert und sich dabei mehr und mehr für die Rolle des Menschen im umbauten Raum interessiert. Deshalb hat er das Architekturstudium durch ein Ergänzungsstudium Technik-, Wirkungs- und Innovationsmanagement abgerundet. Parallel hat er noch ein Zusatzstudium Energie und Umwelt absolviert und ist zertifizierter Gebäudeenergieberater. Im Anschluss hat er sich für eine Promotion in Japan entschieden. An der Tokyo City University (Laboratory for Built Environmental Research) wurde er 2010 in Umweltinformationswissenschaften promoviert. Seitdem ist er am KIT tätig und hat sich inzwischen auch hier habilitiert.

Ein schönes Anschauungsobjekt für die Themen des Gespräches ist das 2015 bezogene Kollegiengebäude Mathematik. Der erste Sommer im Haus begann nämlich schon mit dem Einzug im April 2015. Damals hatte man sich erhofft, mit den nötigen Beschattungsmaßnahmen für das Atrium noch etwas Zeit zu haben und das Gebäude bezogen, obwohl die Technik noch nicht funktionierte. In mehreren Schritten sind inzwischen die geplanten Maßnahmen für die Lüftung und Beschattung des Gebäudes im Wesentlichen in Betrieb gegangen und zeigen sich als durchaus geeignet, einen Komfort auch im Sommer zu ermöglichen.

Trotzdem hat an dem sehr sonnigen Februartag des Gespräches, die niedrig stehende Sonne das Büro sehr aufgeheizt. Im Sommer sorgt die Regelung der Außenbeschattung rechtzeitig für Verdunklung - im Winter hätte Gudrun selbst vor der Mittagspause für Beschattung sorgen müssen, um das zu vermeiden. Schon sind Marcel und Gudrun mitten im Gespräch über das für und wider von Kontrolle durch zentrale Modelle oder durch die Personen im Raum.

Ein Forschungsergebnis ist dass, die empfundene Kontrolle sich auf das thermische Empfinden der Personen auswirkt. Ob man ein Fenster prinzipiell öffnen kann oder nicht hat Einfluss auf thermische Zufriedenheit. Solche Experimente werden z.B. im Raumklimateststand LOBSTER der Arbeitsgruppe durchgeführt. Dort werden experimentelle Studien durchgeführt, während derer die Studienteilnehmer*innen unter unterschiedlichen Temperatur- und Lichtbedingungen arbeiten. Es werden dabei auch physiologische Reaktionen des Körpers gemessen. Der Teststand hat eine etwa 10mx10m große Grundfläche und enthält zwei Büroräume. Es ist eine Temperaturregelung über alle Wände (inkl. Decke und Boden) möglich. So ist es auch möglich, Bedingungen außerhalb der Norm zu untersuchen.

Man weiß, dass sich der menschliche Körper an warme Temperaturen anpassen kann. Überhaupt ist die Wahrnehmung der Temperatur relativ und nicht absolut. Meist unbemerkt wird die Körperkerntemperatur durch Veränderung des Blutflusses vom Körperkern zur Peripherie des Körpers konstant gehalten. Zusammen mit Physiologen und Psychologen hat Marcel eine Metastudie abgeschlossen, welche Einflussgrößen zu individuellen Unterschieden in der Temperaturwahrnehmung führen. Ein Aspekt war hierbei auch, inwieweit sich das Wärmeempfinden von Frauen und Männern unterscheidet. Frauen tendieren zwar dazu sich etwas kühler zu fühlen, aber in einem Bereich von etwa 75% zeigen Frauen und Männern keinen großen Unterschied.

Die Untersuchungen der Arbeitsgruppe können helfen, auch ohne aktive Kühlung Gebäude thermisch komfortabel zu gestalten. Auch für die Zukunft, wenn die Temperaturen in Deutschland weiter steigen werden. Prinzipiell sind Großraumbüros zwar schwierig für alle Nutzer gleichzeitig komfortabel thermisch zu beherrschen, gleichzeitig wird untersucht, inwieweit neueste Technik es ermöglicht eine lokale Steuerung der Temperaturen über die Stühle oder Luftauslässe am Schreibtisch zu realisieren, um den individuellen Bedürfnissen von Personen gerecht zu werden.

In den Modellen, die Marcel und seine Kolleginnen benutzen, werden Gleichungen für Blutfluss vom Körperkern zur Peripherie benutzt. Außerdem wird sowohl die Strahlungswärme als auch die Konvektion vom Körper betrachtet. Sie werden in Computerprogrammen gelöst, die typischerweise auch Rückwirkungsschleifen enthalten. Zusätzlich braucht es statistische Modelle, die helfen, die experimentellen Daten zu ordnen und zu interpretieren.

In naher Zukunft soll auch die Kopplung von thermischen, akustischen und visuellen Anteilen an der Gesamtzufriedenheit gleichzeitig betrachtet werden können.



Literatur und weiterführende Informationen M. Schweiker e.a.: Drivers of diversity in human thermal perception – A review for holistic comfort models Temperature, 1–35, 2018. doi:10.1080/23328940.2018.1534490 M. Schweiker e.a.: comf: Functions for Thermal Comfort Research Programme, 2017. M. Schweiker & A. Wagner: The effect of occupancy on perceived control, neutral temperature, and behavioral patterns Energy and buildings 117, 246-259, 2016. doi: 10.1016/j.enbuild.2015.10.051 M. Schweiker & A. Wagner: A framework for an adaptive thermal heat balance model (ATHB) Building and environment 94, 252-262, 2015. doi: 10.1016/j.buildenv.2015.08.018

Podcasts M. Rösler, G. Thäter: Raumklima, Gespräch im Modellansatz Podcast, Folge 143, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Portrait of Science

Feb 22, 2019 1:06:20

Description:

Gudrun met Magdalena Gonciarz in Dresden. They sat down in a very quiet Coffeeshop in Dreikönigskirche and talked about their experiences as scientists giving science an image. Magda started Portrait of science in 2016 with two objectives: to show that science is a process with many contributors at all carreer levels and to have a get-away from a demanding PhD-project, to express her creativity and have tangible results.

The person who pointed Gudrun in Magda's direction is Lennart Hilbert, a former co-worker of Magda in Dresden who is now working at KIT on Computational Architectures in the Cell Nucleus (he will be a podcast guest very soon).

On the Portrait of Science page one can find photographs of people from Dresden's Life Science campus. Apart from the photographs, one can also find their stories. How and why did they become scientists? What do they do, what are they passionate about? Magda invites us: "Forget the tubes and Erlenmeyer flasks. Science is only as good as the people who do it. So sit back, scroll down and get to know them looking through the lens of Magdalena Gonciarz. Have you ever wondered what kind of people scientists are? Would you like to know what are they working on? What drives and motivates them - spending days in the basement without the sun? Portrait of Science project aims at uncovering more about people who contribute to science at all levels - Research Group Leaders, Postdocs, PhD Students, Staff Scientists and Technicians. All of them are vital for progress of scientific research and all of them are passionate people with their own motivations."

When she started the Portrait of Science project, Magda challenged herself to take more pictures. She wanted to show the real people behind science and their personality. This was a creative task, quite different from her work as scientist - done with comparably little time. On top of taking the pictures, interviewees were asked to fill out a questionaire to accompany the story told by the photographs. Surprisingly, the stories told by her co-workers turned out to be quite inspiring. The stories told have shown the passion and the diverse motivations. People mentioned their failures as well. There were stories about accidents and their crucial role in carreers, about coincidence of finding a fascinating book or the right mentor - even as far back as in early childhood sometimes. Sharing ups and downs and the experience that there is a light at the end of the tunnel was a story she needed and which was worth to be shared. Knowing how hard scientific work can be, and how multiple friends and colleagues struggled more than she herself, Magda still strongly feels that it is useful to show that this is not a private and unique experience, but probably a part of the life of every scientist. This struggle can be overcome with time, effort, and help.

Magda comes from Poland. During her Master's studies, she had an opportunity to do a research placement at the University of Virginia. During that time she felt welcomed as part of a scientific community in which she wanted to stay. It was a natural decision to proceed with a PhD. She applied to the very prestigious Dresden International Graduate School for Biomedicine and Bioengineering and joined the biological research on proteins and their modifications in the lab of Jörg Mansfeld. After finishing her project, she decided to leave academia. Since 2018 she works for a learning and training agency CAST PHARMA and is involved in producing e-Learning solutions for pharmaceutical companies.

Magda also talked a bit about her PhD research. As we all know, genes code for proteins. However, one protein can exist in multiple different forms with multiple varying functions. A protein can be post-translationallly modified, i.e., modified after it is created in order to e.g., be relocated, have different interaction partners or become activated or destroyed in a manner of minutes. Recently, modern methods such as mass spectrometry, made it possible to see the multitude of post-translationally modified forms of proteins and allowed further research with the use of biochemistry or imaging techniques to gain insight into functions of these modifications, e.g., at different stages of the cell life.

Gudrun and Magda also talked about the challenge to make a broader audience understand what the particular research topic is all about. It is hard to refer to things we cannot see. It is often easier for people with more translatable research to connect it to various diseases, e.g., cancer but still creates a challenge for those working with more basic issues such as developmental biology.

What Magda took from her time in academia is much more than her results and her part in the basic research story. She feels that curiosity and quick learning skills are her superpowers. She is able to become familiar with any topic in a short amount of time. She can manage multiple parts of a project. Also she learned resilience and how to deal with challenges and failures on a daily basis, which can prove to be helpful in all areas of life.
At the moment, she is still making plans whether to continue the Portrait of Science in the future, maybe in a changed format.


Podcasts A. Leßmöllmann: Wissenschaftskommunikation, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 130, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. C. Rojas-Molian: Rage of the Blackboard, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 121, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Fluglotsen

Feb 7, 2019 1:02:54

Description:

Gudrun spricht in dieser Episode mit Colin Bretl und Niko Wilhelm. Beide sind zur Zeit des Gespräches Bachelorstudenten am Karlsruher Institut für Technologie (KIT). Colin studiert Mathematik und Niko Informatik. Bevor sie sich für ein Studium am KIT entschieden haben, hatten sie an der Dualen Hochschule Karlsruhe (DHBW) ein Bachelorstudium Wirtschaftsinformatik abgeschlossen.

Die beiden haben im Wintersemester 2018/19 an Gudruns Vorlesung Modellbildung teilgenommen. Wie schon in unserer ersten Podcastepisode besprochen wurde, gehört zum Programm der Vorlesung, dass die Studierenden sich in Gruppen finden, selbst ein Projekt suchen und bearbeiten. Colin und Niko haben die Arbeit von Fluglotsen betrachtet. Sie haben modelliert, wie die anfliegenden Flugzeuge am besten auf die Landebahn zugeteilt werden. Am Beispiel des Flughafens Heathrow (mit Daten vom 1. August 2018) wurde ihr erstelltes Modell getestet. Als mathematische Methode haben sie hierfür Warteschlangentheorie augewählt. Die beiden haben das Modell selbst erarbeitet, es programmiert und eine Ausarbeitung angefertigt. Die Podcastepisode zeigt, wie und warum sie ihr Problem gewählt haben und welche Schritte zum Erfolg (oder auch zum Misserfolg) geführt haben.

Die Überwachung einer Flugbewegung durch Fluglotsen findet z.B beim Landeanflug auf einen Zielflughafen statt. Wollen mehrere Luftfahrzeuge in einem kurzen Zeitraum nacheinander landen, gehört es zu den Aufgaben des Lotsen, diese Reihenfolge festzulegen. Infolgedessen werden den einzelnen Luftfahrzeugführern Streckenanweisungen mitgeteilt (bspw. ob diese einmal oder mehrfach ein Warteschleife fliegen sollen). Im trivialen Fall, dass zwischen zwei ankommenden Luftfahrzeugen genug Zeit liegt, kann jedes Luftfahrzeug auf möglichst direktem Weg zur Landebahn geführt werden. Der Durchsatz, also wie viele Luftfahrzeuge in einem Zeitintervall landen können, ist in diesem Fall optimal. Bei hohem Verkehrsaufkommen gestaltet sich die Überwachung durch Fluglotsen schwieriger. Es müssen nicht nur Sicherheitsabstände zwischen den Luftfahrzeugen eingehalten werden, sondern auch physikalische Besonderheiten des Luftverkehrs und technische Restriktionen berücksichtigt werden. Diese wirken sich negativ auf den Durchsatz aus. Außerdem erschweren die Rahmenbedingungen eine mathematische Untersuchung.

Im Projekt von Colin und Niko wird die Problemstellung nur für Flugzeuge, die durch Radar identifiziert werden können, betrachtet. Darunter fallen u.a. große Passagiermaschinen, wie sie an internationalen Verkehrsflughäfen vorzufinden ist. Solche Flugzeuge machen den größten Anteil an kontrollierten Flugbewegungen aus. Mit Hilfe des mathematischen Modells sollen die Grundlagen dafür geschaffen werden, verschiedene Lotsen-Strategien auf ihren Durchsatz hin zu untersuchen. Es konzentriert sich dabei zunächst auf das Standardanflugverfahren bei hohem Verkehrsaufkommen und geht davon aus, dass Flugzeuge in der Reihenfolge ihrer Ankunft landen dürfen.

Wenn eine Landung nicht unmittelbar eingeleitet werden kann, müssen die Flugzeuge Standard-Warteschleifen fliegen. Die Warteschleife ermöglicht es, die Mindestgeschwindigkeit zum Fliegen aufrecht zu erhalten. Prinzipiell kreist ein Flugzeug in einer Warteschleife über einem festen Punkt. Mehrere Flugzeuge können in unterschiedlicher Höhe dieselbe Warteschleife nutzen.

Für den Datensatz von Heathrow am 1. August 2018 stellte sich heraus: Zu Spitzenzeiten kommen 50 Flugzeuge pro Stunde an. In diesem Fall ist das System nicht stabil. Das bedeutet, die Lastspitze könnte im Modell nicht dauerhaft durchgehalten werden. Stabilität ist bei 38 Flugzeugen pro Stunde gerade noch so gegeben. Nach dem mathematischen Modell könnte der Flughafen Heathrow also 38 Flugzeuge pro Stunde abarbeiten, was fast dem Mittelwert über alle Anflüge am 1.8. 2018 zwischen 06:00 und 23:00 etwa entspricht (das waren im Datensatz 39,1).

Literatur und weiterführende Informationen C. Bretl & N. Wilhelm: Modellierung ankommender Flugzeuge - Beschreibung mithilfe von Warteschlangen am Beispiel des Flughafens London Heathrow, 2019. J. Reichmuth and P. Berster: Past and Future Developments of the Global Air Traffic. in: M. Kaltschmitt & U. Neuling (Eds.): Biokerosene - Status and Prospects, Springer, 2018. https://doi.org/10.1007/978-3-662-53065-8_2 K.-H. Waldmann and U. M. Stocker: Stochastische Modelle - Eine anwendungsorientierte Einführung. 2nd ed. Springer, 2013. D. Baum: Grundlagen der Warteschlangentheorie. Springer, 2013. F. Shortle et al.: Fundamentals of Queueing Theory. Wiley, 2018 ICAO: Doc. 4444 Air Traffic Management, 2016. Podcasts G. Thäter, S. Ritterbusch: Mathematische Modellbildung, Gespräch im Modellansatz Podcast, Folge 1, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S. Müller, T. Pritlove: Ziviler Luftverkehr, CRE 211, Metaebene Personal Media, 2016.

MINToring

Jan 31, 2019 50:07

Description:

Gudrun ist zu Gast bei der Gleichstellungsbeauftragten der FU in Berlin, um über ihr MINToring-Projekt zu reden. Das ist seit einiger Zeit eine Einladung an Schülerinnen zum Einstieg in die Physik und Informatik. Das Projekt entwickelte dafür eine Reihe von Angeboten, nämlich:

alle 2 Wochen werden verschiedene Workshops an der FU veranstaltet (ab der 7. Klasse); es werden Betriebspraktika in den Fachbereichen Physik und Informatik vermittelt und begleitet (ab der 9.Klasse); Tage an der Uni im Herbst, in denen man in Vorlesungen der Informatik, Physik und Bioinformatik hineinschnuppern kann Workshops an den Schulen

Gudrun spricht außer mit der Frauenbeauftragten Mechthild Koreuber (Mathematikerin, promoviert in Wissenschaftsgeschichte) auch mit den beiden Koordinatorinnen des MINToring-Projekts Anette Dietrich (Koordinatorin Mathematik und Informatik) und Audrey Houillon (Koordination Physik). Audrey hat in München Physik studiert und in Paris am CNRS im Gebiet Neurowissenschaften promoviert. Das ist ein interdisziplinäres Forschungsthema zwischen Physik, Informatik, Psychologie und Biologie. An der TU Berlin hat sie eine Zeit als Postdoc im Gebiet computational Neuroscience gearbeitet und ist dann in die Jugend- und politische Bildung gewechselt bevor sie die Koordinationsstelle an der FU übernahm. Anette ist am Institut für Informatik, hat in Erziehungswissenschaften über Geschlechter- und in der Rassismusforschung promoviert.

Ausgangspunkt für die Projektidee war für Mechthild eine Erfahrung am Rande der Abiturfeier ihrer Tochter. Aus einem Physik Leistungskurs mit 50% Mädchen wollte damals keines Physik studieren oder hatte dies als Möglichkeit auch nur in Erwägung gezogen. Wieso?

Sie dachte darüber nach, wie kann man junge Frauen und Mädchen motivieren, sich für diese Fächer zu entscheiden und konkret etwas gegen den niedrigen Frauenanteil in den MINT-Fächern tun? Sie stellte sich dabei zunächst ein Projekt vor, dass interessierte Mädchen in der Abiturstufe anspricht. Interesse würde sich z.B. über die Teilnahme an Leistungskursen herausfinden lassen. Das ist aber leider z.B. in der Informatik nicht durchführbar. weil es dort fast keine Leistungskurse gibt. Außerdem wurde schnell klar, dass man schon mit jüngeren Schülerinnen beginnen sollte, um den Übergang zu den Aktionen am Girls'day zu sichern, wo die FU für Schülerinnen der Klassenstufen 5-10 jährlich etwa 1000 Plätze in ungefähr 80 kleinen Gruppen anbietet.

Ein zentrales und einzigartiges Werkzeug im MINToring Projekt ist die Möglichkeit zum Betriebspraktikum an der FU. So ein Praktikum ist in der 9. oder 10. Klasse für 2-3 Wochen für alle Berliner Schüler vorgesehen. Manche intessieren sich auch für ein freiwilliges Praktikum in den Sommerferien. Es ist unüblich, so ein Praktikum an einer Universität durchzuführen. Vor allem aus dem Grund, dass sich wenige Menschen vorstellen können, dass das geht.

Das Projekt MINTOring bietet aber hierfür einen Rahmen und kann Schülerinnen deshalb direkt dafür einladen. Den Rahmen bilden Einführungskurse und andere Workshops (wie z.B. für Programmiersprachen) für eine kleine Gruppe Schülerinnen und ein Abschlussvortrag mit ausführlicher Auswertung und Einordnung der Erfahrungen. Zentral ist die Forschungsarbeit in den Arbeitsgruppen (2-5 Tage) im individuellen Zuschnitt auf das Interesse jeder Schülerin. In der Zeit erleben sich die Mädchen selbst als kompetent und ihre Arbeit würd wertgeschätzt.

Das Feedback der Schülerinnen war bisher stets sehr positiv. Sie schätzen am Praktikum, dass sie neues gelernt haben, Erfahrung mit Forschung sammeln durften und in der Gruppe erlebt haben, dass sie mit ihren Interessen willkommen sind und geschätzt werden. Dazu kommen ganz besondere Erlebnisse, wie dass sich eine Professorin für sie ganz persönlich interessiert und im Kontakt bleiben möchte, was in Summe zu einer sehr emotionalen Erfahrung führt, die in Erinnerungen bleibt.

Für so eine erfolgreiche Arbeit musste natürlich Skepsis überwunden werden. Es ist inzwischen leichter, Ideen für altersgerechte Forschungsprojekte zu finden, nachdem es viele gelungen Beispiele gibt. Trotzdem ist nach wie vor ein großer Anteil an Arbeitszeit für die Koordination des Projekts dadurch gebunden, dass Arbeitsgruppen für Schülerinnen gefunden werden. Es ist schön, wenn inzwischen auch schon Arbeitsgruppen auf das Projekt zukommen, die durch Kritik am schlechten Frauenanteil dazu gedrängt werden, selbst auch aktiv zu werden.

Konkrete Projekte aus der jüngsten Vergangenheit sind:

die Umsetzung eines Needleman-Wunsch-Algorithmus am Computer. Das ist ein Optimierungsalgorithmus aus der Bioinformatik, der zum Vergleich zweier Nukleotid- bzw. Aminosäuresequenzen eingesetzt wird. ein Bio-Informatik-Projekt, wo in enger Zusammenarbeit mit dem Juniorprofessor ein Datensatz zu Krebstumoren mit der Programmiersprache R analysiert wurde.

Aber auch einen Betrag liefern zu können, um ein kaputtes Mikroskop zu reparieren, ändert das Verständnis davon, wie Forschung gemacht wird. Wenn Erwachsene sagen: Ich weiß das nicht, ich muss erst probieren, um eine Lösung zu finden, dann hinterlässt das einen Eindruck.
Inzwischen gibt es tatsächlich schon mehr Interessentinnen für ein Praktikum, als aufgenommen werden können.

Das Projekt wurde zuerst durch das Professorinnenprogramm und später durch das Chancengleichheitsprogramm finanziert. Inzwischen werden statt dieser Drittmittel Haushaltsmittel der FU eingesetzt. In der Zukunft wäre es wichtig, dass die Finanzierung der Koordinierungsstellen auf Dauer von der FU Berlin sichergestellt wird und sich auch andere Universitäten ein Beispiel nehmen. Eine Erweiterung auf andere Fächer ist auch im Moment schon in Arbeit.

Zusätzlich zu dieser Art von Projekten muss sich in der Gesellschaft noch einiges ändern. In anderen Ländern ist es viel selbstverständlicher, dass Frauen in technische Fächer gehen. Es ist erstaunlich, wie stark das Selbstbewußtsein schon leidet, wenn die Entscheidung für ein MINT-Fach ständig durch die Umgebung in Frage gestellt wird. Hier wäre mehr Ermutigung in der Schule ein guter Anfang.



Podcasts A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Mischau, M. Koreuber: Gender und Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Studienbotschafterinnen

Jan 17, 2019 33:56

Description:

Als Technische Universität ist das Karlsruher Institut für Technologie (KIT) vor allem ein Lernort für junge Männer. Der Anteil von Frauen in den technischen Fächern ist in Deutschland seit vielen Jahren weit von 50% entfernt und es gibt ganz unterschiedliche Ideen, wie man mehr Studentinnen "ins Boot holen" kann. Am KIT erproben wir seit dem Jahr 2018 die Entsendung von Studienbotschafterinnen an Schulen. Sie gestalten dort zwei Unterrichtsstunden mit einem spannenden Thema aus der Mathematik oder Physik und stehen anschließend für Fragen zur Verfügung über alles, was mit dem Studium im Allgemeinen und dem Studium am KIT im Besonderen zu tun hat.

Bisher wurden (im Rahmen dieses Programms) über 50 Schulen und über 1000 Schüler besucht (Stand Ende 2018).

Für die Mathematik sind Alina Sage und Lea Schenk unterwegs. Alina studiert Technomathematik am KIT und Lea hat Mathe und Chemie für das Lehramt am Gymnasium studiert. Sie macht jetzt noch einen Masterabschluss in Mathematik. In der Episode schildern beide ihre persönlichen Erfahrungen mit ihrer Rolle als Studienbotschafterin und mit dem Mathematik-Studium am KIT.

Literatur und weiterführende Informationen Artikel im Weinheimer Boten Schülerlabor Mathematik Schülerlabor Physik Schülerlabor Geophysik
Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Risikoentscheidungen

Jan 11, 2019 45:18

Description:

Gudrun hat sich im Spätsommer 2018 zum dritten Mal mit Oliver Beige (@oliverbeige) in Berlin verabredet. Oliver beschäftigt sich unter anderem mit mathematischen Modellen für ökonomische Prozesse und hat neben der wissenschaftlichen Expertise auch sehr unterschiedliche praktische Erfahrungen. Der Plan für das Gespräch war, sich über Baysean Updates zu unterhalten. Kurz gesagt ist das ist eine Möglichkeit, bessere Entscheidungen mit wenigen und unsicheren Informationen zu treffen. Der Name beschreibt schon die zentrale Idee: Der Satz von Bayes wird verwendet, um die Wahrscheinlichkeit für eine Hypothese neu zu berechnen, wenn mehr Informationen verfügbar werden.

Entscheidungen unter unsicheren Informationen muss man selbst im Alltag und für die eigene Zukunft ständig treffen, weshalb sich die Hörerschaft sicher gut vorstellen kann, dass dies eigentlich eine fast unlösbare Aufgabe ist. Für Unternehmen geht es in der mittleren und Langzeitplanung darum, das Potential von Mitarbeitern und von Ideen richtig einzuschätzen. Lässt sich ein Produkt mit den eigenen Mitteln zur Marktreife entwickeln und wie wird der Markt in 5-30 Jahren dafür aussehen? Vor allem wenn es um einen Markt geht, den es noch gar nicht gibt. Ein Beispiel hierfür ist automatisiertes Fahren. Die Idee gibt es schon seit etwa 30 Jahren und auch Schritte in der Entwicklung, aber bis heute gibt es noch nichts auf dem Markt. Schon Anfang der 1990er Jahre gab es große Erwartungen, was neuronale Netze und Machine Learning hier bald leisten werden, aber diese Begeisterung war um die Jahrtausendwende schon wieder erloschen. Heute erleben die Ideen eine Renaissance, denn es gibt nun viele Daten, genug Rechenpower und ein Zusammenwirken von Statistik und Informatik ist so endlich möglich.

Damals wie heute stellt sich aber die Frage: Wie viel Geld und andere Ressourcen sollte man einsetzen und zu welchem Zeitpunkt endgültig entscheiden, sich ganz hinter das neue Produkt zu stellen oder die Pläne ad acda zu legen. Der Versuch, hierfür Modelle zu finden, die alle Zweige und Eventualitäten nachbilden ist nicht sinnvoll umsetzbar, weil zu viele Informationen geschätzt werden müssen und je weiter in die Zukunft geplant werden muss, desto unwägbarer sind Zahlenwerte hierfür.

Deshalb ist es bessser, hier mit einfachen Modellen zu arbeiten, die sich gut anwenden lassen, aber auch nur Teile von Entscheidungsprozessen vereinfachen.

Ein Beispiel hierfür ist das Baysean updating. Experten wissen einiges, sind aber nicht perfekt - vor allem wegen unvollständiger Information. Mit Hilfe von Wahrscheinlichkeitsrechnung läßt sich berechnen, was der Beitrag der Experten sein kann und ob sie nützlich sind. Hierzu werden gut testbare Annahmen gut ausformuliert und am Markt getestet in einzelnen Entscheidungsstufen. Die Kosten für den Test werden möglichst niedrig gehalten. Anschließend weiß man z.B., welches für Kunden das wichtigstes Feature ist und kann dies zuerst entwickeln (Minimal Viable Product) - die anderen erst später.

Oliver ist Karlsruher Wirtschaftingenieur und hat diese über Wettbewerb in Netzwerken in den USA promoviert, an der UC Berkeley nahe am Silicon Valley, zu Zeiten des dot-com Booms. In Deutschland wird solche Forschung meist im Unternehmen gemacht. In den USA gibt es neben dieser Forschung in Unternehmen auch noch sogenanntes Venture Capital. Die Investoren erwarten nicht, dass alle unterstützten Ideen am Ende Profit bringen - man weiß, dass die meisten Ideen zu nichts führen. Es reichen im Verlauf einiger Jahre nur wenige durchschlagende Ideen mit einem riesigen Profit, um das System interessant zu machen. Kurz gesagt gibt es damit einen Marktplatz für Ideen. Heute gibt es das auch als sogenannte Gründerszene in Deutschland (besonders in Berlin) aber noch längst nicht in dem Umfang wie in den USA.

Das Gespräch dreht sich in weiten Kreisen und behandelt neben Mathematik und ökonomischen Entscheidungen auch interessante Beispiele aus 30 Jahren. Außerdem verlieren sie sich in unterschiedlichsten Fragen rings um neue Techniken, die auch einbeziehen, wie sich die Rolle von Autos für die Gesellschaft ändert und ändern muss und wie der rechtliche Rahmen für den Austausch von Informationen zwischen Fahrzeugen geregelt werden müsste. Es ist eine schreckliche Vorstellung, wenn Autos für Hackerangriffe anfällig sind. Anscheinend ist es aber nach wie vor so, dass wir eher bereit sind, mit menschlichen Fehlern zu leben als mit Fehlern, die Algorithmen machen, obwohl autonom fahrende Fahrzeuge wohl viele Tote und verletzte Personen vermeiden könnten.


Literatur und weiterführende Informationen Wikipedia: Expected value of sample information C. Howson & P. Urbach: Scientific Reasoning: The Bayesian Approach (3rd ed.). Open Court Publishing Company. ISBN 978-0-8126-9578-6, 2005. A.Gelman e.a.: Bayesian Data Analysis Third Edition. Chapman and Hall/CRC. ISBN 978-1-4398-4095-5, 2013. Yu, Angela: Introduction to Bayesian Decision Theory cogsci.ucsd.edu, 2013. Devin Soni: Introduction to Bayesian Networks, 2015. Oliver Beige: The 4P's of Silicon Valley Risk Capital, ein Tweetstorm, 2018. G. Nuti, L. Rugama, A.-I. Cross: Efficient Bayesian Decision Tree Algorithm, arXiv:1901.03214 stat.ML, 2019.
Podcasts B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle O. Beige, G. Thäter: Wahlprognosemodelle, Gespräch im Modellansatz Podcast, Folge 149, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/wahlprognosemodelle O. Beige, G. Thäter: Mikroökonomik, Gespräch im Modellansatz Podcast, Folge 140, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/mikrooekonomik

Noether-Theorem

Jan 3, 2019 52:42

Description:

Gudrun spricht mit Markus Pössel in Heidelberg. Er ist Physiker und leitet das Haus der Astronomie auf dem Königstuhl dort. Gudrun und Markus kennen sich schon lange aus der Ferne. Sie haben sich auf twitter über Themen ausgetauscht, die mit Wissenschaftskommunikation verbunden sind. Anlass für ein tiefergehendes Gespräches war, dass Markus eine wissenschaftliche Arbeit veröffentlicht hat, in der er einen elementaren Zugang zum ersten Noether Theorem beschreibt mit Hilfe von zwei Beispielen. Kurz nach dem sehr erfolgreichen Experiment #noethember, wo im November 2018 ein Monat lang Emmy Noethers Leben und Forschung in unterschiedlichster Weise erinnert wurde, ist diese Podcastepisode ein etwas verspäteter Beitrag.

Markus widmet sich in seiner wissenschaftlichen Arbeit elementaren Zugängen zu faszinierenden physikalischen Themen. Persönlich interessiert er sich dabei insbesondere für die Allgemeine Relativitätstheorie, und insbesondere für deren Anwendungen in der Astrophysik. Dafür ist das Haus der Astronomie als gemeinschaftliche Einrichtung der Max Planck Gesellschaft und der Klaus Tschira Stiftung (mit der Universität und der Stadt Heidelberg als weiteren Partnern) ein geeignetes Dach, denn es wurde dafür gegründet, astronomische Forschung für alle Bevölkerungsschichten erfahrbar zu machen.

Der Einstieg in astronomische Themen funktioniert oft gut über Phänomene, die an der Intuition rütteln oder interessante Extreme von Theorien sind. Auch wenn Astronomie selten zum Schulstoff gehört, spricht es Schülerinnen und Schüler direkt an. Dass das Interesse an Astronomie gross ist, zeigt z.B. die ROSE-Studie. Deswegen bietet Astronomie einen so guten Einstieg in MINT-Fächer.

Die Wissenschaftler in Heidelberg kommunizieren gern. Jeden zweiten Donnerstag im Monat findet die Vorlesungsreihe Faszination Astronomie über aktuelle Forschungsergbnisse statt. Es gibt außerdem sogenante MPI-Outreach Fellows, die sich besonders für Bildungs-und Öffentlichkeitsarbeit interessieren. Sie werden weitergebildet und in die tägliche Arbeit eingebunden. Neben den regelmäßigen Vorträgen gibt es auch ganz besondere Veranstaltungen wie zuletzt im November mit dem Klangforum Heidelberg, wo es zur Musik eine interaktive Planetariumsvorführung gab.

Es werden ständig Fortbildungen für Physiklehrer und -lehrerinnen organisiert. Auch für Grundschullehrkräfte gibt es in Zusammenarbeit mit der Forscherstation der Klaus Tschira Stiftung Programme, um zu sie zu Ansprechpartnern für die natürliche Neugier der Kinder zu machen. Auch die Studierenden, die sich an der Universität Heidelberg als Physiklehrer ausbilden lassen führt ein mehrwöchiger Kompaktkurs ins Haus der Astronomie. Darüber hinaus arbeiten immer einmal wieder Praktikanten im Haus der Astronomie und Markus betreut wissenschaftliche Abschlussarbeiten. Im Moment ist es oft im Themengebiet der Kosmologie zusammen mit dem MPI für Astronomie nebenan, z.B.in der Auswertung der Illustris-Simulationen. In diesem Computerexperiment wird das Universum von der Urknallphase bis heute erforscht.

Neben den Hochglanzthemen wie Sterne und Raumfahrt gibt es aber auch andere Themen, die kommuniziert werden sollten, weil sie in der Physik einen wichtigen Platz haben. Ein Beispiel hierfür sind die zwei Noether-Theoreme. Im ersten wird das extrem allgemeines Resultat formuliert, dass die Existenz von Symmetrie der Existenz einer Erhaltungsgröße entspricht. Es lässt sich noch relativ einfach formulieren und inhaltlich nachvollziehen, aber man braucht sehr tief liegende Mathematik, um das Ergebnis zu beweisen und wirklich zu verstehen, wo der Knackpunkt liegt, der diese Beziehung zwischen Symmetrie und Erhaltungsgrößen greifbar macht.

Markus hat in seiner Arbeit zwei Beispiele angeführt, für die man die expliziten Lösungen der Bewegungsgleichungen kennt. Das hilft, in konkreten und elementaren Rechnungen den Zusammenhang von Symmetrie und Energieerhaltung zu sehen. Das erste Beispiel ist die Bewegung im (konstanten) Schwerefeld, das zweite der harmonischer Oszillator.
Die Grundidee ist, dass eine Verschiebung des Anfangszeitpunktes bei den Berechnungen die Bahn des Körper nicht ändert. Wenn man zwei unterschiedliche Anfangszustände vergleicht, führt der Koeffizientenvergleich auf Gleichungen, die genau der Energieerhaltung entsprechen (konkret bleibt Summe aus potentieller und kinetischer Energie konstant).
Beim harmonischen Oszillator braucht man zusätzlich noch trigonometrische Formeln.

Markus wünscht sich noch mehr Zeit dafür, die Materialen konsistenter zu sammeln und aufzubereiten....und wer sich für Weltraum interessiert, sollte DLR_next auf Twitter folgen!

Sneak preview: unseren @mpoessel könnt ihr in Kürze im Podcast @modellansatz hören. Mit Themen von @HdAstro und #wisskomm bis zu Emmy Noether! pic.twitter.com/zcSduq9Ke6

— Haus der Astronomie (@HdAstro) 13. Dezember 2018


Literatur und weiterführende Informationen Praktikanten (intl. Sommerpraktikum 2017) haben ihr Projekt - Simulation von Galaxien-Kollisionen - zusammengeschrieben, und es ist jetzt auf arXiv Allgemeine Relativitätstheorie allgemeinverständlich - eines von Markus Pössels Projekten zum Einsteinjahr 2005: M. Pössel: Energy conservation in explicit solutions as a simple illustration of Noether's theorem, Am. J. Phys., in press M. Pössel: Relatively complicated? Using models to teach general relativity at different levels Informationen über die Forscherstation Klaus-Tschira-Kompetenzzentrum für frühe naturwissenschaftliche Bildung: Informationen zu Praktika für Schüler*innen im Haus der Astronomie: Informationen zu Bachelorarbeiten am Haus der Astronomie Projekt Raum für Bildung zur Horizons-Mission von Alexander Gerst (gemeinsam mit DLR und Joachim Herz Stiftung) http://scienceblogs.de/hier-wohnen-drachen/2011/05/22/der-schonste-satz-der-klassischen-physik/ A: Irwin: Astronomers have an outsize passion for outreach nature, 26 November 2018 Olbers Paradoxon
Podcasts F. Freistetter: Emmy Noether und die Erhaltungssätze der Physik, Sternengeschichten Podcast Folge 182, 2016. E. P. Fischer: Emmy Noether, Die Entdeckungen großer Forscher, BR Podcast, 2013.

Schülermarketing

Dec 27, 2018 44:35

Description:

Gudrun spricht mit Sebastian Schäfer und Isabel Häuser von der KIT-Fakultät für Informatik. Ihre Aufgabe dort ist die Öffentlichkeitsarbeit. Der persönliche Kontakt hatte sich durch die gemeinsame Arbeit in einem Gremium des KIT ergeben, wo Ideen entwickelt werden, wie mehr junge Frauen für ein Studium am KIT gewonnen werden können. Das Podastgespräch fasst das Thema etwas allgemeiner und beleuchtet das derzeitige Schülermarketing an der Informatik am KIT und wie es sich über die letzten Jahre entwickelt hat.

Die KIT-Fakultät für Informatik hat seit den frühen 2000ern eine eigene Stelle für Öffentlichkeitsarbeit. Seit 2009 wurden in diesem Rahmen besondere Anstrengungen unternommen, um Schülerinnen und Schüler strategisch für ein Informatikstudium am KIT zu werben. Diese Aktivitäten werden unter dem Namen Schülermarketing zusammengefaßt. Da es in den Jahren 2005-2008 einen Einbruch der Anfängerzahlen gegeben hatte, wollte man gezielter als bisher die jungen Leute ansprechen und informieren, um die Studierendenzahlen dadurch zu steigern. Seitdem wurden die diesbezüglichen Aktivitäten deutlich ausgebaut und es gibt nicht nur eine verantwortliche Person, sondern ein Team. Zur Zeit sind das Sebastian und Isabel, die direkt mit Rückendeckung von Geschäftsführung und Fakultätsvorstand arbeiten. Sie bringen dafür ihr Kommunikations-Know-how mit, das sie in einem geisteswissenschaftlichen Studium erworben haben.

Tatsächlich lohnt sich diese Arbeit, denn die Einschreibezahlen haben sich seit 2009 mehr als verdoppelt.

Ein wichtiges Werkzeug für Information nach innen wie außen und für den ersten Eindruck sind die Informationsseiten der Website. Deshalb nimmt deren Pflege und Weiterentwicklung eine wichtige Rolle in der täglichen Arbeit ein. Außerdem die traditionellen Schüler-Outreach-Formate am KIT wie Teilnahme an Berufsinformationsmessen, viele Aktionen zum Girls' Day, Uni für Einsteiger und das Anbieten von Schnupperkursen. Hier geht es in der Abteilung vor allem um die Kommunikation und Koordination aber auch um die Entwicklung (und Durchführung) von Ideen für einzelne Aktionen (wie z.B. Gewinnspiele), die gezielt auf einzelnen Kanälen (Instagram, Facebook und Twitter) laufen und auf die Fakultät aufmerksam machen. Weitere Veranstaltungsformate, die große Resonanz haben, sind die regelmäßigen Sommercamps, aus denen jedes Jahr neue Studierende hervorgehen.

Ein bewährtes Instrument sind Give-Aways, mit denen die beiden versuchen, etwas Witziges mit Informatik-Bezug zu verbinden. Hierfür gibt es zum Glück viele Ansatzpunkte. Bisher waren das z.B. Turnbeutel mit verschlüsseltem Text, Pixelbrillen und Cardboards. Aber selbst so konventionelle Geschenke wie Kuli-Serien und Stofftaschen finden auf diesem Weg begeisterte junge Besitzer.

Inzwischen gibt es auch spezielle Ansätze, um mehr Frauen für das Studium zu gewinnen - auch weil die Fakultät das Schlusslicht im Frauenanteil am KIT darstellt. Gerechte Bild- und Textsprache sind eine Selbstverständlichkeit und weibliche Rollenmodelle werden aktiv gesucht und gefunden wie z.B. aktuell in einem Video über den Semesterstart.

Ein Wunsch für die Zukunft wäre es, noch mehr im Video-Format erarbeiten zu können, um auf Youtube einen stärkeren eigenen Akzent setzen zu können.


Literatur und weiterführende Informationen Informationsseiten zum Studium an der KIT-Fakultät für Informatik Youtube-Kanal KIT-Fakultät für Informatik auf Twitter Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Energy Markets

Dec 21, 2018 1:05:00

Description:

Gudrun Talks to Sema Coşkun who at the moment of the conversation in 2018 is a Post Doc researcher at the University Kaiserslautern in the group of financial mathematics. She constructs models for the behaviour of energy markets.

In short the conversation covers the questions

How are classical markets modelled? In which way are energy markets different and need new ideas?

The seminal work of Black and Scholes (1973) established the modern financial theory. In a Black-Scholes setting, it is assumed that the stock price follows a Geometric Brownian Motion with a constant drift and constant volatility. The stochastic differential equation for the stock price process has an explicit solution. Therefore, it is possible to obtain the price of a European call option in a closed-form formula. Nevertheless, there exist drawbacks of the Black-Scholes assumptions. The most criticized aspect is the constant volatility assumption. It is considered an oversimplification. Several improved models have been introduced to overcome those drawbacks. One significant example of such new models is the Heston stochastic volatility model (Heston, 1993). In this model, volatility is indirectly modeled by a separate mean reverting stochastic process, namely. the Cox-Ingersoll-Ross (CIR) process. The CIR process captures the dynamics of the volatility process well. However, it is not easy to obtain option prices in the Heston model since the model has more complicated dynamics compared to the Black-Scholes model.

In financial mathematics, one can use several methods to deal with these problems. In general, various stochastic processes are used to model the behavior of financial phenomena. One can then employ purely stochastic approaches by using the tools from stochastic calculus or probabilistic approaches by using the tools from probability theory. On the other hand, it is also possible to use Partial Differential Equations (the PDE approach). The correspondence between the stochastic problem and its related PDE representation is established by the help of Feynman-Kac theorem. Also in their original paper, Black and Scholes transferred the stochastic representation of the problem into its corresponding PDE, the heat equation. After solving the heat equation, they transformed the solution back into the relevant option price. As a third type of methods, one can employ numerical methods such as Monte Carlo methods.

Monte Carlo methods are especially useful to compute the expected value of a random variable. Roughly speaking, instead of examining the probabilistic evolution of this random variable, we focus on the possible outcomes of it. One generates random numbers with the same distribution as the random variable and then we simulate possible outcomes by using those random numbers. Then we replace the expected value of the random variable by taking the arithmetic average of the possible outcomes obtained by the Monte Carlo simulation. The idea of Monte Carlo is simple. However, it takes its strength from two essential theorems, namely Kolmogorov’s strong law of large numbers which ensures convergence of the estimates and the central limit theorem, which refers to the error distribution of our estimates.

Electricity markets exhibit certain properties which we do not observe in other markets. Those properties are mainly due to the unique characteristics of the production and consumption of electricity. Most importantly one cannot physically store electricity. This leads to several differences compared to other financial markets. For example, we observe spikes in electricity prices. Spikes refer to sudden upward or downward jumps which are followed by a fast reversion to the mean level. Therefore, electricity prices show extreme variability compared to other commodities or stocks.

For example, in stock markets we observe a moderate volatility level ranging between 1% and 1.5%, commodities like crude oil or natural gas have relatively high volatilities ranging between 1.5% and 4% and finally the electricity energy has up to 50% volatility (Weron, 2000). Moreover, electricity prices show strong seasonality which is related to day to day and month to month variations in the electricity consumption. In other words, electricity consumption varies depending on the day of the week and month of the year. Another important property of the electricity prices is that they follow a mean reverting process. Thus, the Ornstein-Uhlenbeck (OU) process which has a Gaussian distribution is widely used to model electricity prices. In order to incorporate the spike behavior of the electricity prices, a jump or a Levy component is merged into the OU process. These models are known as generalized OU processes (Barndorff-Nielsen & Shephard, 2001; Benth, Kallsen & Meyer-Brandis, 2007). There exist several models to capture those properties of electricity prices. For example, structural models which are based on the equilibrium of supply and demand (Barlow, 2002), Markov jump diffusion models which combine the OU process with pure jump diffusions (Geman & Roncoroni, 2006), regime-switching models which aim to distinguish the base and spike regimes of the electricity prices and finally the multi-factor models which have a deterministic component for seasonality, a mean reverting process for the base signal and a jump or Levy process for spikes (Meyer-Brandis & Tankov, 2008).

The German electricity market is one of the largest in Europe. The energy strategy of Germany follows the objective to phase out the nuclear power plants by 2021 and gradually introduce renewable energy ressources. For electricity production, the share of renewable ressources will increase up to 80% by 2050. The introduction of renewable ressources brings also some challenges for electricity trading. For example, the forecast errors regarding the electricity production might cause high risk for market participants. However, the developed market structure of Germany is designed to reduce this risk as much as possible. There are two main electricity spot price markets where the market participants can trade electricity. The first one is the day-ahead market in which the trading takes place around noon on the day before the delivery. In this market, the trades are based on auctions. The second one is the intraday market in which the trading starts at 3pm on the day before the delivery and continues up until 30 minutes before the delivery. Intraday market allows continuous trading of electricity which indeed helps the market participants to adjust their positions more precisely in the market by reducing the forecast errors.



References S. Coskun and R. Korn: Pricing Barrier Options in the Heston Model Using the Heath-Platen estimator. Monte Carlo Methods and Applications. 24 (1) 29-42, 2018. S. Coskun: Application of the Heath–Platen Estimator in Pricing Barrier and Bond Options. PhD thesis, Department of Mathematics, University of Kaiserslautern, Germany, 2017. S. Desmettre and R. Korn: 10 Computationally challenging problems in Finance. FPGA Based Accelerators for Financial Applications, Springer, Heidelberg, 1–32, 2015. F. Black and M. Scholes: The pricing of options and corporate liabilities. The Journal of Political Economy, 81(3):637-654, 1973. S.L. Heston: A closed-form solution for options with stochastic volatility with applications to bond and currency options. The Review of Financial Studies, 6(2):327–343, 1993. R. Korn, E. Korn and G. Kroisandt: Monte Carlo Methods and Models in Finance and Insurance. Chapman & Hall/CRC Financ. Math. Ser., CRC Press, Boca Raton, 2010. P. Glasserman, Monte Carlo Methods in Financial Engineering. Stochastic Modelling and Applied Probability, Appl. Math. (New York) 53, Springer, New York, 2004. M.T. Barlow: A diffusion model for electricity prices. Mathematical Finance, 12(4):287-298, 2002. O.E. Barndorff-Nielsen and N. Shephard: Non-Gaussian Ornstein-Uhlenbeck-based models and some of their uses in financial economics. Journal of the Royal Statistical Society B, 63(2):167-241, 2001. H. Geman and A. Roncoroni: Understanding the fine structure of electricity prices. The Journal of Business, 79(3):1225-1261, 2006. T. Meyer-Brandis and P. Tankov: Multi-factor jump-diffusion models of electricity prices. International Journal of Theoretical and Applied Finance, 11(5):503-528, 2008. R. Weron: Energy price risk management. Physica A, 285(1-2):127–134, 2000.


Podcasts G. Thäter, M. Hofmanová: Turbulence, conversation in the Modellansatz Podcast, episode 155, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2018. http://modellansatz.de/turbulence G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/wasserstofftankstellen S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm K. Cindric, G. Thäter: Kaufverhalten, Gespräch im Modellansatz Podcast, Folge 45, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/kaufverhalten V. Riess, G. Thäter: Gasspeicher, Gespräch im Modellansatz Podcast, Folge 23, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/gasspeicher F. Schueth, T. Pritlove: Energieforschung, Episode 12 im Forschergeist Podcast, Stifterverband/Metaebene, 2015. https://forschergeist.de/podcast/fg012-energieforschung/

Nonhomogenous Fluids

Dec 13, 2018 51:04

Description:

In this episode Gudrun talks with her new colleague Xian Liao. In November 2018 Xian has been appointed as Junior Professor (with tenure track) at the KIT-Faculty of Mathematics. She belongs to the Institute of Analysis and works in the group Nonlinear Partial Differential Equations.

She is very much interested in Dispersive Partial Differential Equations. These equations model, e.g., the behaviour of waves. For that it is a topic very much in the center of the CRC 1173 - Wave phenomena at our faculty.

Her mathematical interest was always to better understand the solutions of partial differential equations. But she arrived at dispersive equations through several steps in her carreer. Originally she studied inhomogeneous incompressible fluids. This can for example mean that the fluid is a mixture of materials with different viscosities. If we have a look at the Navier-Stokes equations for materials like water or oil, one main assumption therein is, that the viscosity is a material constant. Nevertheless, the equations modelling their flows are already nonlinear and there are a few serious open questions. Studying flows of inhomogneous materials brings in further difficulties since there occur more and more complex nonlinearities in the equations.

It is necessary to develop a frame in which one can characterise the central properties of the solutions and the flow. It turned out that for example finding and working with quantities which remain conserved in the dynamics of the process is a good guiding line - even if the physical meaning of the conserved quantitiy is not always clear. Coming from classical theory we know that it makes a lot of sense to have a look at the conservation of mass, energy and momentum, which translate to conserved quantities as combinations of velocity, its derivatives, pressure and density. Pressure and density are not independent in these simplified models but are independent in the models Xiao studies. In the complex world of inhomogeneous equations we lose the direct concept to translate between physics and mathematics but carry over the knowledge that scale invarance and conservation are central properties of the model.

It is interesting to characterize how the complex system develops with a change of properties. To have a simple idea - if it is more developing in the direction of fast flowing air or slow flowing almost solid material. One number which helps to see what types of waves one has to expect is the Mach number. It helps to seperate sound waves from fluid waves. A mathematical/physical question then is to understand the process of letting the Mach number go to zero in the model. It is not that complicated to make this work in the formulae. But the hard work is done in proving that the solutions to the family of systems of PDEs with lower and lower Mach number really tend to the solutions of the derived limit system. For example in order to measure if solutions are similar to each other (i.e. they get nearer and nearer to each other) one needs to find the norms which measure the right properties.

Xian was Undergraduate & Master student at the Nanjing University in China from 2004 to 2009, where she was working with Prof. Huicheng Yin on Partial Differential Equations. She succeeded in getting the scholarship from China Scholarship Council and did her PhD within the laboratory LAMA (with Prof. Raphaël Danchin on zero-Mach number system). She was member of the University Paris-Est but followed many master courses in the programs of other Parisian universities as well.

In 2013 she spent 8 months at the Charles University in Prague as Postdoc within the research project MORE. There she collaborated with Prof. Eduard Feireisl and Prof. Josef Málek on understanding non-Newtonian fluids better.

After that period she returned to China and worked two years at the Academy of Mathematics & Systems Science as Postdoc within the research center NCMIS. With Prof. Ping Zhang she was working on density patch problems. Before her appointment here in Karlsruhe she already returned to Europe. 2016-2018 she was Postdoc at the University Bonn within the CRC 1060. She was mainly working with Prof. Herbert Koch on Gross-Pitaevskii equations - a special topic within dispersive equations.


References Short Interview with the CRC 1173 Wave phenomena X. Liao, R. Danchin: On the wellposedness of the full low-Mach number limit system in general Besov spaces. Commun. Contemp. Math.: 14(3), 1250022, 2012. X. Liao: A global existence result for a zero Mach number system. J. Math. Fluid Mech.: 16(1), 77-103, 2014. X. Liao, E. Feireisl and J. Málek: Global weak solutions to a class of non-Newtonian compressible fluids. Math. Methods Appl. Sci.: 38(16), 3482-3494, 2015. X. Liao: On the strong solutions of the nonhomogeneous incompressible Navier-Stokes equations in a thin domain. Differential Integral Equations: 29, 167-182, 2016. X. Liao, P. Zhang: Global regularities of 2-D density patches for viscous inhomogeneous incompressible flow with general density: high regularity case, 2016.

Inno2Grid

Dec 6, 2018 35:44

Description:

Gudrun talks to Carlos Mauricio Rojas La Rotta. They use a Skype connection since Carlos is in Berlin and Gudrun in Karlsruhe.

Carlos is an electrical engineer from Colombia. His first degree is from Pontifcia Universidad Javeriana in Bogotá. For five years now he has been working at Schneider Electric in Berlin. In September 2018 Gudrun met Carlos at the EUREF-Campus in Berlin for discussing the work of Claire Harvey on her Master's thesis. The schedule on that day was very full but Gudrun and Carlos decided to have a Podcast conversation later.

Carlos came to Germany as a car enthusiast. Then he got excited about the possibilities of photovoltaic energy production. For that from 2005-2007 he studied in the Carl von Ossietzky Universität in Oldenburg in the PPRE Master course Renewable Energies. When he graduated within a group of about 20 master students they found a world ready for their knowledge. Carlos worked in various topics and in different parts of Germany in the field of renewable energies. Now, at Schneider he has the unique situation, that he can combine all his interests. He develops the most modern cars, which are driving with renewable energy. In the course of his work he is also back at his original love: working with electronics, protocols and data.

The work on the EUREF-Campus in Berlin started about 8-10 years ago with more questions than clear ideas. Schneider Electric is a big company with about 150.000 employees all over the world. They deal in all types of software and hardware devices for energy delivery. But the topic for Berlin was completely new: It was a test case how to construct energy sustainable districts.

They started out investing in e-mobility with renewable energy and making their own offices a smart building. It is a source of a lot of data telling the story how energy is produced and consumed. At the moment they collect 1GB data per day in the office building on about 12.000 measure points into database and build this as a benchmark to compare it to other scenarios. The next step now is also to find ways to optimize these processes with limited computational possibilities.

This is done with open source code on their own interface and at the moment it can optimize in the micro smart grid on the Campus. For example with 40 charging points for e-cars - consumption is planned according to production of energy. On Campus traditional batteries are used to buffer the energy, and also a bus now works on the Campus which can be discharged and is loaded without a cable!

One can say: Carlos is working in a big experiment. This does not only cover a lot of new technical solutions. The Energiewende is more than putting photovoltaic and wind power out. We as a society have to change and plan differently - especially concerning mobility.

Schneider Electric just started an expansion phase to the whole campus, which has a size of 5.5 ha and 2500 people working there. More than 100 charging point for e-cars will be available very soon.


Podcasts C. Harvey, G. Thäter: Micro Grids, Gespräch im Modellansatz Podcast, Folge 186, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

Mensch-Maschine Interaktion

Dec 2, 2018 1:08:34

Description:

Gudrun war in Weimar an der Bauhaus Universität zu Gast bei Jan Ehlers. Sie haben sich über seine Forschungstätigkeit im Umfeld von Mensch-Maschine Interaktion unterhalten. Jan hat in Bremen Psychologie studiert und dort auch promoviert. Nach einer Zeit an der Universität in Ulm ist er zur Zeit in Weimar als Lehrstuhlinhaber tätig.

Gudruns Wunsch war es schon länger, das Thema im Podcast zu haben, denn Mensch-Maschine Interaktion betrifft alle Leute, die irgend etwas mit Computern machen. Dabei war klar, dass dies ein sehr breites Feld ist, wo im Gespräch mit Jan nur einzelne Aspekte vorkommen werden. Darüber hinaus, dass es thematisch breit ist, ist es ein sehr interdisziplinäres Feld, wo zwischen Biologie und Algorithmen als "Extremwerten" sehr unterschiedliches Wissen nötig ist und nur in Zusammenarbeit der Fachgebiete neues entsteht.

Jans Fachgebiet ist der "Faktor Mensch". An seiner Arbeit faszinieren ihn viele Dinge, aber besonders, dass es noch so ein junges Feld ist, in den man Pionierarbeit verrichtet. Er hat sich auf kognitive Psychologie spezialisiert und untersucht u.a. wie peripher physiologische Signale (also von der Körperoberfläche abgeleitete Informationen) als Messwerte für psychologische Zustände dienen können. In erster Linie ist das universitäre Grundlagenforschung ohne unmittelbaren Anwendungsbezug.

Dahinter stehen aber so fundamentale Fragen wie: Wie wird Aufmerksamkeit generiert? Wie kann man trotz interindividueller Unterschiede Erregungs- oder Aktivierungsniveaus aus solchen objektiv beobachtbaren Größe wie Pupillenbewegung oder Leitfähigkeit der Haut ablesen. Es müssen Größen herangezogen werden, die dem Bewusstsein nicht direkt zugänglich (also leicht manipulierbar) sind.

Für die Experimente sind künstliche, hoch kontrollierte Situationen im Labor typisch, weil man ja wissenschaftlich Wirkmechanismen und Kausalbeziehungen beweisen möchte. Im Fachchargon spricht man auch von physiological computing bzw. mental status determination, also der Einschätzung einer psychischen Situation ohne Worte. die auf Selbsteinschätzung beruhen.
Ein anschauliches Beispiel ist, dass man an der Blinzelfrequenz ablesen kann, wenn jemand müde wird. Man kann das gut mit Sensoren beobachten und messen und dann einen übermüdeten LKW-Fahrer durch so ein System erkennen und zum Pause machen anhalten.

Menschlich ist das allerdings ein wenig brisant, denn wir wollen lieber die Kontrolle behalten und nicht von System Vorschriften gemacht bekommen.
Hinzu kommt, dass man solche Systeme auch austricksen kann. Im Labor wird dazu das Biofeedback der Sensoren visualisiert und Probanden können lernen, darüber kognitive Kontrolle zu erhalten. Ein Beispiel hierfür ist die Pupillengröße, die man auf dem Monitor gut als Kreis einer gewissen Größe abbilden kann. Man kann üben, sie willentlich größer oder kleiner zu machen mit Hilfe der Rückmeldung auf dem Bildschirm.

Für Forschung mit und über Menschen müssen ethische Prinzipien eingehaltne werden. Es ist apriori ja nicht in Ordnung, wenn man z.B. im Experiment Probanden systematisch anlügt. Trotzdem ist es eine wichtige und interessante Fragestellung, ob man die oben erläuterte Möglichkeit, dass man Einfluss auf eigentlich unbewusste Vorgänge erhalten kann, auch in die andere Richtung ausnutzen kann. Wenn ich einem erregten Probanden Biofeedback auf dem Monitor zeige, dass einer ruhigen Situation entspricht und der Proband dem Feedback glaubt, wird er dann vielleicht ruhig?


Literatur und weiterführende Informationen C.Strauch e.a.: Pupil-Assisted Target Selection (PATS), Proceedings of the 16th IFIP TC.13 International Conference on Human-Computer Interaction – INTERACT, Mumbai, India. 2017 J. Ehlers e.a.: Pupil Size Changes as an Active Information Channel for Biofeedback Applications, Applied Psychophysiology and Biofeedback. doi: 10.1007/s10484-016-9335-z. 2016 Steven Fairclough: Physiological Computing E.M. Vingolo, G. Napolitano, S. Fragiotta:Microperimetric biofeedback training: fundamentals, strategies and perspectives Frontiers In Bioscience, Scholar, 10, 48–64, January 1, 2018Podcasts P. Purgathofer, T. Pritlove: Mensch-Maschine Interaktion, CRE Folge 131, Technik Kultur Gesellschaft, Metaebene Personal Media, 2009. P. Dzierzawski, G. Jaworek: Vibrationsbänder, Folge 9 im Neues Terrain Podcast, 2017.

Micro Grids

Nov 9, 2018 31:56

Description:

Gudrun talks with the Scotish engineer Claire Harvey. After already having finished a Master's degree in Product design engineering at the University of Glasgow for the last two years Claire has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. She spent her first year in Lisbon at Instituto Superior Técnico (IST) and the second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of her supervisor at KIT while she worked on her Master's thesis at the EUREF Campus in Berlin for the Startup inno2grid.

Her study courses prepared her for very diverse work in the sector of renewable energy. Her decision to work with inno2grid in Berlin was based on the fact, that it would help to pave the way towards better solutions for planning micro grids and sustainable districts. Also, she wanted to see an actual micro grid at work. The office building of Schneider Electric, where the Startup inno2grid has its rooms is an experiment delivering data of energy production and consumption while being a usual office building. We will hear more about that in the episode with Carlos Mauricio Rojas La Rotta soon.

Micro grids are small scale electrical grid systems where self-sufficient supply is achieved. Therefore, the integration of micro grid design within district planning processes should be developed efficiently. In the planning process of districts with decentralised energy systems, unique and customised design of micro grids is usually required to meet local technical, economical and environmental needs. From a technical standpoint, a detailed understanding of factors such as load use, generation potential and site constraints are needed to correctly and most efficiently design and implement the network. The presence of many different actors and stakeholders contribute to the complexity of the planning process, where varying levels of technical experience and disparate methods of working across teams is commonplace.

Large quantities of digital information are required across the whole life-cycle of a planning project, not just to do with energetic planning but also for asset management and monitoring after a micro grid has been implemented. In the design of micro grids, large amounts of data must be gathered, there are initial optimization objectives to be met, and simulating control strategies of a district which are adapted to customer requirements is a critical step. Linking these processes - being able to assemble data as well as communicate the results and interactions of different "layers" of a project to stakeholders are challenges that arise as more cross-sector projects are carried out, with the growing interest in smart grid implementation.

Claire's thesis explores tools to assist the planning process for micro grids on the district scale. Using geographical information system (GIS) software, results relating to the energetic planning of a district is linked to geo-referenced data. Layers related to energy planning are implemented - calculating useful parameters and connecting to a database where different stakeholders within a project can contribute. Resource potential, electrical/thermal demand and supply system dimensioning can be calculated, which is beneficial for clients and decision makers to visualize digital information related to a project. Within the open source program QGIS, spatial analysis and optimizations relating to the design of an energy system are performed. As the time dimension is a key part in the planning of the energy supply system of a micro grid, the data is linked to a Python simulation environment where dynamic analysis can be performed, and the results are fed back in to the QGIS project.



References T. Benz et al.: Der Zellulare Ansatz. VDE, Energietechnische Gesellschaft, Frankfurt, Germany, 2015. A. Halu et al.: Data-driven modeling of solar-powered urban microgrids. Science Advances 2 (1). DOI:10.1126/sciadv.1500700, 2016. M. Giudice and E. Patti: BIM and GIS for District Modelling Politecnico di Torino, Turin, Italy, 2014. QGIS Ch. Nytsch-Geusen et al.: Sustainable and energy-efficient redevelopment of city quarters - Analytical and planning tools for energy assessment and rehabilitation of urban districts. Universität der Künste, Berlin, 2015.

Podcasts Z. Ahamed, G. Thäter: Electric Vehicles on the Grid, Gespräch im Modellansatz Podcast, Folge 183, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, B. Pousinho: Weather Generator, Gespräch im Modellansatz Podcast, Folge 148, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Tsunami-Modelle

Nov 1, 2018 1:05:21

Description:

Man kann zu sozialen Medien unterschiedliche Auffassungen haben. Aber die Wissenschaftspodcaster nutzen das Medium twitter recht aktiv und auch das Karlsruher Institut für Technologie (KIT) bespielt seinen Kanal @KITKarlsruhe so, dass man als Abonnent tatsächlich mancherlei erfährt. Am 7. Oktober wurde z.B. dort weitererzählt, dass Ergebnisse einer Simulation aus dem KIT in einem Artikel der New York Times (vom 2.10. 2018) vorgestellt wurden, der die Auswirkungen des Sulawesi-Erdbebens und des von ihm ausgelöstenTsunamis in Indonesien (vom 29.9.2018) anhand von Luftbildern begreifbar macht.

Genauer handelte es sich um Tsunami-Modelle von Andreas Schäfer vom Geophysikalischen Institut und Gudruns Neugier war geweckt. Sie wollte gern genaueres über diese Modelle erfahren. Am 23. Oktober traf sie sich mit dem Bauingenieur und Physiker zum Gespräch.

Ebenfalls auf dem twitter-Kanal des KIT hatte Gudrun in der Zwischenzeit erfahren, dass Andreas der Zeitschrift des Deutschen Hochschulverbandes Forschung und Lehre zu seinem Engagement auf Twitter und Facebook Rede und Antwort gestanden hat und auch ein erfahrener Science-Slammer ist.

Somit gab es noch viel mehr Gesprächsstoff.

Die Aktivität auf twitter sieht z.B. so aus, dass Andreas die Daten eines gemeldeten Erbebens in seine Simulation einspeist und die Auswirkungen berechnet und visualisiert. Das Bild dazu wird anschließend über twitter (und Facebook) an die Leute verteilt, die sich dafür interessieren (die Follower). Hier als Beispiel die Analyse zu dem Erdbeben in Indonesien.

Ein kürzlich aufgezeichneter Mitschnitt eines Science-Slam-Beitrags zu Andreas Forschung über Tsunamis ist der Beitrag Talking Tsunami.


Im Moment ist Andreas mit mehreren Mitstreitern dabei, ein Startup zu gründen, das Risikoanalysen machen kann Risklayer.


Literatur und weiterführende Informationen Center for Disaster Management and Risk Reduction Technology (CEDIM) Forensische Katastrophenanalysen K. Schmermund im Gespräch mit A. Schäfer: Mitdiskutieren oder nicht, Forschung und Lehre, 12.10. 2018. CATnews is a world wide news channel for natural disasters M. Wei-Haas: The Science of Indonesia's Surprise Tsunami, National Geographic vom 1.10.2018 Andreas Schäfer (2018, GPI): Development of a Global Tsunami Risk Model A. Schäfer, J. E. Daniell, F. Wenzel: The smart cluster method: Adaptive earthquake cluster identification and analysis in strong seismic regions. J. Seismol., 21, 965–985, doi:10.1007/s10950-017-9646-4, 2017. A. M. Schäfer, F. Wenzel: TsuPy: Computational robustness in Tsunami hazard modelling. Computers & Geosciences, 102, 148-157., 2017.
Podcasts S. Wollherr, G. Thäter: Erdbeben und Optimale Versuchsplanung, Gespräch im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. K. Schratz, G. Thäter: Lawinen, Gespräch im Modellansatz Podcast, Folge 015, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. K. Elsen, G. Thäter: Erdrutsche, Gespräch im Modellansatz Podcast, Folge 015, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. S. Wollherr, G. Thäter: Bruchzonen, Gesprächim Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Schäfer, P. Barth, A. Blessing: Tsunamis und Erdbeben, Episode 12 im Kritisches Denken Podcast, 2018.

Rechenschieber

Oct 25, 2018 1:54:38

Description:

Wie es kam, dass es kam, dass es so ist, wie es ist, mit dem Rechenschieber. Zu einer gemeinsamen Folge vom damalsTM-Podcast zur Technikgeschichte und dem Modellansatz zur Mathematik trafen sich Prof. Dr. Ralph Pollandt, Stephan Ajuvo und Sebastian Ritterbusch in der Hochschule für angewandte Wissenschaften in Karlsruhe zu diesem mathematisch-technischen Thema aus vergangenen Zeiten.

Stephan Ajuvo hatte den Rechenschieber schon länger auf seiner Liste seiner Wunschthemen. Er konnte nach der hackover-Konferenz nach Karlsruhe kommen, wo am 4. Mai 2018 die 9. Lange Nacht der Mathematik stattgefunden hatte, die von Sebastian Ritterbusch moderiert wurde, und wo Ralph Pollandt den Rechenschieber in einem Publikumsvortrag vorgestellt hatte.

Die lange Nacht der Mathematik wurde an der damaligen Fachhochschule Karlsruhe im Jahr 2000, dem Weltjahr der Mathematik, gestartet, und fand seither alle zwei Jahre mit sehr großem Besucherandrang statt.

Vor Einzug der Taschenrechner, wie beispielsweise dem SchulRechner 1 oder SR1, waren Rechenschieber im Schulbetrieb allgegenwärtig. Es gab unter anderem Typen von Aristo oder von VEB Mantissa Dresden.

Die Basis der grundsätzlichen Methode hinter dem Rechenschieber wurde mit dem Beginn der Nutzung von Logarithmentafeln (um 1600) gelegt. In der DDR wurden diese für Schulen vom Verlag Volk und Wissen gedruckt. Sie umfassten neben den Logarithmen auch eine Formelsammlung für Mathematik, Physik und Chemie. Auch die Bordwährung der c-base orientierte sich an der logarithmischen Skala.

Ein Weg den Logarithmus einzuführen geht über die Exponentialfunktion, die viele Wachstumsprozesse in der Natur bis zur Sättigung beschreibt.

Exponentialfunktion

$\exp(x)=e^x$

Da diese Entwicklungen oft sehr schnell ansteigen, bietet es sich an, die Werte mit der Umkehrfunktion zu beschreiben, und das ist genau der Logarithmus: Exponentiell ansteigende Werte wie die 2-er Potenzen 1, 2, 4, 8, 16, 32, ..., a(n)=2^n werden nach Anwendung des Logarithmus Dualis zur Basis 2 linear zu 0, 1, 2, 3, 4, 5, ..., \log_2 a(n)=n und damit deutlich einfacher zu begreifen. Auch in der Musik werden aus Frequenzen von Tönen nach Anwendung des Logarithmus Dualis ganzzahlig zu Oktaven und im nicht-ganzzahligen Rest zu den Tönen.

Für die Nutzung mit Logarithmentafeln und dem Rechenschieber sind die Logarithmenregeln äusserst wichtig:

$\log(a\cdot b)=\log(a)+\log(b)\,,\quad \log(\frac{a}{b})=\log(a)-\log(b)$

In Logarithmentafeln ist sehr häufig der dekadische Logarithmus zur Basis 10 abgedruckt, da dies bei der Nutzung mit Zahlen im Dezimalsystem sehr hilfreich ist. Dabei wird typisch nur eine Dekade in der Tafel abgedeckt, da höhere Dekaden einfach ganzzahlige Differenzen im Wert darstellen. Da diese Betrachtung außerhalb der Tafeln stattfindet, müssen diese Größenordnungen während der Rechnung mitgeführt und am Ende dem Ergebnis abgerechnet werden.

Da Rechenschieber wie gegenüber liegende Lineale sehr einfach addieren können, wird aus der Schieblehre bei Nutzung der Logarithmenregeln ein mächtiges Multiplikationsgerät. Das kann man sich am Selbstbau-Rechenschieber gut vor Augen führen:

Selbstbau-Rechenschieber

Der Rechenschieber besteht typischerweise aus einem bedruckten äußeren Körper, einer darin ebenfalls bedruckten beweglichen Zunge und einem oben aufliegenden bis auf Linien transparenten Läufer. Die aufgedruckten Skalen können zum einen einfache logarithmische Skalen für die Multiplikation und Division sein (hier die Skalen C und D über eine Dekade), oder auch ganz andere Funktionen beinhalten, wie für das Bauwesen die Festigkeit, dem Elastizitätsmodul, der Druckfestigkeit oder die Zinseszins-Rechnung. Oft waren wichtige Konstanten wie die Kreiszahl π oder die Lichtgeschwindigkeit c angenähert auf der Rückseite abgedruckt.

Für die Bedruckung und Anwendung haben sich verschiedene Systeme etabliert, wie das System Darmstadt, das System Rietz oder Duplexstäbe, es gab aber auch nationale Unterschiede durch Traditionen, Notationen oder Hersteller. Das typische Tischformat hatte eine Länge von rund 30cm, es gab sie aber auch im Taschenformat oder in lebensgroßen 2 Metern, und entsprechendem Gewicht.

Ein sehr verbreiteter Rechenschieber in Kreisform ist der Benzin-Rechner:

Benzin-Rechner

Ein weiterer interessanter Aspekt ist, dass Rechenschieber auch irrationale Konstanten wie die Euler'sche Zahl e, die Kreiszahl π oder einfach Werte der Wurzelfunktion scheinbar exakt auf den analogen Skalen abbilden konnten, und damit einen Analogrechner darstellen.

Das Rechnen mit dem Rechenschieber stammt von den Logarithmentafeln ab. Will man die Zahlen 2 und 3 multiplizieren, so kann man die Logarithmen der Zahlen 2 und 3 nachschlagen, das sind bei dem dekadischen Logarithmus auf 3 Stellen die Zahlen 0,3010 und 0,4771. Diese Zahlen werden nun addiert zu 0,7781 und nach umgekehrter Suche findet man als Ergebnis die Zahl, die diesem Logarithmus zugeordnet ist, die Zahl 6.

Logarithmen-Tafeln

Der Rechenschieber nimmt einem nun das Nachschlagen und Addieren ab, in dem die Skalen C und D logarithmisch aufgetragen sind und die Addition durch das Verschieben der Zunge erfolgt. Die gleiche Rechnung kann man auch mit den Skalen A und B durchführen, die gleich zwei Dekaden von 1-100 abdecken, wenn sie auf dem Schieber zur Verfügung stehen. Rechnet man kombiniert zwischen A und C oder B und D, so kann man gleichzeitig Wurzelziehen oder Quadrieren, muss aber den Läufer verwenden, um die Skalen genau ausrichten zu können. Die Erfindung des Läufers wird Sir Isaac Newton zugeschrieben.

Die verschiedenen Skalen ermöglichen die Abbildung fast beliebiger Funktionen, auf fast allen Rechenschieber sind beispielsweise die trigonometrischen Funktionen enthalten, jedoch nur auf eingeschränkten Skalen. Hier muss man entweder die Symmetrieeigenschaften der jeweiligen Funktionen kennen, oder für tiefe Werte besondere Techniken oder Approximationen wie Taylorreihenentwicklungen kennen.

Eine Nutzung des Rechenschiebers setzt auch immer die Fähigkeit zur Überschlagsrechnung voraus, bei der man vorab eine Abschätzung zum erwarteten Ergebnis bestimmt. Das bietet einen gewissen Schutz vor Fehlbedienungen, ist aber auch bei der Verwendung von Computern sinnvoll, da es immer wieder zu Fehlern in der Hardware kam, wie beispielsweise beim Pentium-FDIV-Bug, wo Rechnungen schlicht falsch ausgeführt wurden.

Nicht nur vermeintlich korrekte Rechenergebnisse können zu Irrtum führen, auch ein blindes Verlassen auf Signifikanztests ist ebenso nicht zielführend, in dem Artikel Why Most Published Research Findings Are False schreibt John P. A. Ioannidis, wieso man sogar beweisen kann, dass inzwischen die meissten solcher Arbeiten auf begrenzten Arbeitsgebieten falsch sein müssen, da sie ihre Abhängigkeit von früheren Arbeiten nicht berücksichtigen.

Einen Einblick in die Komplexität der Abschätzung des Treibstoffsverbrauchs bei Flugrouten bekommt man bei Folge 262 und Folge 263 im OmegaTau-Podcast beim Flug nach Hong Kong und zurück. Auch in Folge 291 zum Buschfliegen wird das Thema der Flugplanung berührt. Lange waren runde Rechenschieber zur Berechnung des Treibstoff-Verbrauchs im Flugzeug im Einsatz.

Bei der langen Nacht der Mathematik gab es auch eine Ausstellung von Rechenmaschinen, die durch ihre mechanische Bauweise einen sonst verborgenen Einblick in die Rechentechnik liefern. Der angesprochene MegaProzessor zur Visualisierung der Rechentechnik aktueller Prozessoren wurde in FreakShow 222 besprochen und wird im Video zum MegaProzessor vorgestellt.

Es gibt regelmäßige Treffen der deutschsprachigen Rechenschieberfreunde, die Rechenschieber-Sammler-Treffen (RST), zuletzt nach Publikation dieser Folge am 20. Oktober 2018 in Bruchsal.

Eine interessanter Rechentrick ist die Berechnung von Additionen mit Hilfe von Division und Multiplikation auf dem Rechenschieber. Hier wird der Zusammenhang

$x+y=y\cdot\left(1+\frac{x}{y}\right)$

genutzt. Zur Addition wird damit der Quotient von x und y berechnet, um 1 addiert und wieder mit y multipliziert.

Beim Rechnen mit dem logarithmischen Rechenschieber ist eher der relative gegenüber dem absoluten Fehler im Fokus. Genau das gilt auch für die Rechnung in Fließkommazahlen im Computer, wo das logarithmische Rechenstab-Prinzip durch den Exponentialteil zum Teil ebenfalls zu Anwendung kommt.

Neben dem dekadischen Logarithmus zur Basis 10, der bei Logarithmentafeln und Rechenschieber zum Einsatz kommt, oder dem Logarithmus Dualis zur Basis 2 aus der Musik oder im Computer, gibt es auch einen natürlichen Logarithmus. Was bedeutet hier natürlich?

Der natürliche Logarithmus ist die Umkehrfunktion der Exponentialfunktion, der Potenzfunktion zur Basis e. Diese Funktion hat die Eigenschaft, dass sie als einzige Funktion unter Differenziation, also z.B. der Berechnung von Geschwindigkeit aus Positionen, und Integration, also z.B. der Berechnung von Positionen aus Geschwindigkeiten, unverändert bleibt. Dies kann man sich auch an der Potenzreihenentwicklung der Exponentialfunktion veranschaulichen:

$f(x)=exp(x)=1+\frac{x}1+\frac{x^2}{1\cdot2}+\frac{x^3}{1\cdot2\cdot3}+\ldots+\frac{x^n}{n!}+\ldots$

Dann ist die Ableitung:

$f'(x)=1+2\frac{x}{1\cdot2}+3\frac{x^2}{1\cdot2\cdot3}+\ldots+n\frac{x^{n-1}}{n!}+\ldots=1+\frac{x}{1}+\frac{x^2}{1\cdot2}+\ldots+\frac{x^{n-1}}{(n-1)!}+\ldots$

Dadurch ist hat die Exponentialfunktion eine große Bedeutung für Modelle und Differenzialgleichungen. Darüber hinaus ist die Exponentialfunktion auch mit den trigonometrischen Funktionen in den komplexen Zahlen direkt miteinander verknüpft:

$\exp(ix)=\cos(x)+i\sin(x)$

Entsprechend beinhaltet auch der natürliche Logarithmus den Zusammenhang mit Analysis, Numerik und Trigonometrie und kann auf den komplexen Zahlen auch als ewige Spirale dargestellt werden.

Ewige Spirale des komplexen Logarithmus - CC BY-SA 3.0: Leonid 2

CC BY-SA 3.0: Leonid 2

In der Kryptographie spielen diskrete Logarithmen eine besondere Rolle, da Potenzfunktionen Kern des RSA-Verfahrens und der elliptischen Kryptographie sind: Im RSA-Verfahren werden Nachrichten auf endlichen Ringen mit einem Schlüssel potenziert, meisst 65537 beim öffentlichen Schlüssel, in der elliptischen Kryptographie wird die Nachricht abschnittsweise in den Exponenten geschrieben und auf einer speziellen elliptischen Kurve berechnet. Auch wenn es zum aktuellen Zeitpunkt noch keine grundsätzliche Lücken in den beiden Verfahren gibt, so ist es wichtig, diese auch korrekt umzusetzen. Ein berüchtigtes Beispiel ist die Perfect Forward Secrecy, die durch fahrlässige Implementationen zur LogJam-Attack führte.

Ralph Pollandt hatte in der Polytechnischen Oberschule (POS) in den Klassenstufen 1-8 noch keine Vertiefung in die Mathematik vor Augen. Seine Faszination für Mathematik entstand aus Interesse an Knobelaufgaben in der Erweiterten Oberstufe (EOS) in den Klassen 9-12, wo er die Hochschulreife erlangte, und neben den Optionen zu Naturwissenschaften oder dem Lehramt, sich für das Studium und Promotion in der Mathematik entschied. Nach mehrjähriger ingenieurstechnischer Tätigkeit im Bauwesen, erlangte ihn der Ruf zur Mathematik-Professur an der Hochschule für angewandte Wissenschaften in Karlsruhe, wo er nun reich mit der Erfahrung aus der Anwendung zur Mathematik im Bauingenieurwesen lehrt.



Literatur und weiterführende Informationen R. Pollandt: Bastelanleitung Rechenschieber R. Pollandt: Bedienungsanleitung zum Rechenschieber Seite der deutschsprachigen Rechenschieber-Sammler Rechenschieber im Rechnerlexikon, der Enzyklopädie des mechanischen Rechnens

Podcasts K. Landzettel, T. Pritlove: Old School Computing, CRE: Technik, Kultur, Gesellschaft, Episode 193, Metaebene Personal Media, 2012. B. Ullmann, M. Völker: Analog Computers, Omega Tau Podcast, Episode 159, Nora Ludewig und Markus Völker, 2014. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, damalsTM Podcast, Episode 58, 2018. J. Müller, S. Ajuvo: Büromaschinen damals, damalsTM Podcast, Episode 50, 2017. K. Leinweber, S. Ajuvo: Taschenrechner, damalsTM Podcast, Episode 37, 2017.

Electric Vehicles on the Grid

Oct 19, 2018 49:03

Description:

Gudrun talks to Zaheer Ahamed about the influence of an increasing number of Electric vehicles (EV) to the electrical grid. Zaheer just finished the ENTECH Master's program. He started it with his first year at the Karlsruhe Institute for Technology (KIT) and continued in Uppsala University for the second year.

Gudrun was part of the grading process of Zaheer's master thesis "Estimating Balancing Capacities of Electric Vehicles on the German and Swedish grids in 2030".

The rising awareness of pollution from transport is leading to innovations within the transport sector. At the moment EVs are the leading technology. With many countries Germany and Sweden joined the so-called EV30@30 campaign, aiming for 30% of new vehicles sales to be electric by 2030. These ambitions alongside an ever increasing capacity of variable renewable energy sources (RES) in our power systems, pose a concerning challenge for Transmission systems operators (TSO) to maintain proper power system operation. Imbalances between supply and demand are undesirable in any electrical power system and with the rising popularity of EVs and RES such events are only expected to continue or increase.

Fortunately, with the recent development of Vehicle to grid (V2G) concepts as well as extensive studies into the load-shifting potential of EVs, EVs presents an interesting solution for power system balancing distributed energy storage system. Zaheer's study showed that EV are capable of balancing the grid for approximately 60% of the time providing 55-60% of the total balancing energy required. However, the operation also took heavy toll on the EV’s battery performance as it could potentially reduce its life to a 1/7th of its original lifetime.


References Commission Regulation (EU) 2017/1485 of 2 August 2017 on establishing a guideline on electricity transmission system operation, 2017. S. Weitemeyer e.a.: Integration of Renewable Energy Sources in future power systems: The role of storage. Renewable Energy, 75 pp.14-20, 2015. D.M.Greenwood e.a.: Frequency response services designed for energy storage. Applied Energy, 203 pp.115-127, 2017. Eurostat Database J. Schäuble e.a.: Generating electric vehicle load profiles from empirical data of three EV fleets in Southwest Germany. Journal of Cleaner Production, 150 pp.253-266, 2017.

Podcasts Volker Quaschning, Tim Pritlove: Energiewende, Forschergeist 053, Stifterverband / Metaebene, 2018. V. Auinger, G. Thäter: Optimale Akkuladung, Gespräch im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/optimale-akkuladung M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter M. Maier, G. Thäter: Akkumulatoren, Gespräch im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/akkumulatoren D. Schumann, M. Voelter: Elektromobilität, Omega Tau Podcast 163, Makus Völter und Nora Ludewig, 2015. J. Dickmann, S. Ritterbusch: Pumpspeicherkraftwerke, Gespräch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.

SimScale

Oct 11, 2018 36:44

Description:

Gudrun talks to Jousef Murad about the computing platform SimScale. Jousef is currently studying mechanical engineering at the Karlsruhe Institute of Technology (KIT) and focuses on turbulence modelling and computational mechanics in his Master's studies. He first learned about the existence of SimScale early in the year 2015 and started as a FEA (finite element analysis) simulation assistant in November 2016. Meanwhile he switched to Community Management and now is Community and Academic Program Manager at the company being responsible for user requests and Formula student teams all over the world. Formula student is a name for design competitions for teams of students constructing racing cars.

SimScale is a cloud-based platform that gives instant access to computational fluid dynamics (CFD) and finite element analysis (FEA) simulation technology, helping engineers and designers to easily test performance, optimize durability or improve efficiency of their design. SimScale is accessible from a standard web browser and from any computer, eliminating the hurdles that accompany traditional simulation tools: high installation costs, licensing fees, deployment of high-performance computing hardware, and required updates and maintenance.

Via the platform, several state-of-the-art open solvers are made available like,e.g., OpenFOAM and Meshing with SnappyHexMesh. More information about the packages being used can be found at https://www.simscale.com/open-source/ .

On top of having easier access to open source software, the connected user forum is very active and helps everybody to enter the field even as a person without experience.

Founded in 2012 in Munich (Germany), nowadays SimScale is an integral part of the design validation process for many companies worldwide and individual users. It is mainly used by product designers and engineers working in Architecture, Engineering & Construction or Heating, Ventilation & Air-Conditioning. Also in the Electronics, Consumer Goods and Packaging and Containers industries SimScale is useful for testing and optimizing designs in the early development stages.

SimScale offers pricing plans that can be customized, from independent professionals to SMEs and multinational companies. The Community plan makes it possible to use SimScale for free, with 3000 core hours/year using up to 16 cloud computing cores.


Simulation around Burj Khalifa using SimScaleSimulation around Burj Khalifa using SimScale


References Turbulence models on the English Wikipedia S. Pope: Turbulent Flows. Cambridge University Press, 2000. P. Sagaut, C. Cambon: Homogeneous Turbulence Dynamics. Cambridge University Press, 2008.
Related Podcasts G. Thäter, M. Hofmanová: Turbulence, Gespräch im Modellansatz Podcast, Folge 155, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 53, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. B.Valsler, D. Ansell: The Science of Turbulence, The Naked Scientists Podcast, 2010.

Forschendes Lernen

Oct 4, 2018 1:03:39

Description:

Gudrun war zu Gast an der FU Berlin für ein lange geplantes Gespräch mit Brigitte Lutz-Westphal zum Thema Forschendes Lernen im Mathematikunterricht. Frau Lutz-Westphal ist dort Professorin für Didaktik der Mathematik und in dieser Rolle in die Lehramtsausbildung eingebunden. Ihre Forschung beschäftigt sich mit der Grundlegung einer Theorie zum forschenden Lernen, mit dialogischem Lernen und authentischem sowie inklusivem Mathematikunterricht. Sie ist seit 2010 wissenschaftliche Begleitung des Programms "Mathe.Forscher" der Stiftung Rechnen. Die enge Zusammenarbeit mit der Schulpraxis in diesem Programm hat wichtige Impulse für ihre wissenschaftliche Tätigkeit gegeben.

Was zeichnet nun forschendes Lernen aus? Es geht darum, für Schülerinnen und Schüler die Mathematik als von Fragen getriebene Wissenschaft erlebbar zu machen (im Gegensatz zum Einpauken von fest stehenden Lehrsätzen und Regeln). Das erfolgt z.B. über Beobachtungen in handgreiflichen Experimenten, die für die Erlangung von mathematischen Resultaten aktiv erkundet werden müssen. Das ist gleichzeitig ein authentisches Erleben von Mathematik, wie sie in der Forschung betrieben wird, also eine Begegnung mit der Wissenschaft Mathematik, ihren Methoden und Arbeitsweisen.

Eine Beschreibung der eigenen forschenden Tätigkeit fällt Mathematiker/innen üblicherweise nicht leicht, diese Metaebene ist für das Forschen ja auch nicht relevant. Aber sie wissen, dass sie Fragen und Vermutungen formulieren aus Erfahrung, Gedankenexperimenten oder einem Bauchgefühl heraus und in Gesprächen im Kollegium, im Auswerten von anderen Arbeiten und im Verwerfen von Hypothesen Stück für Stück neues Wissen finden. Eine derzeit laufende Interviewstudie, die von Prof. Lutz-Westphal betreut wird, soll herausarbeiten, wie man Forschen in der Mathematik präziser charakterisieren kann, um daraus weitere Schlüsse für die authentische didaktische Umsetzung in der Schule zu ziehen

Der Ansatz des forschenden Lernens trägt bereits jetzt die wesentlichen Schritte in die Schule: Anregung zum selbstständigen Fragen, Raum für Erkundungen, offen für fächerübergreifende und vorausgreifende Inhalte, Sichtbarmachen der gefundenen mathematischen Erkenntnisse & kritische Auseinandersetzung mit unterschiedlichen Herangehensweisen und Resultaten. Inzwischen gibt es schon viele erprobte Beispiele für forschendes Lernen, die von Lehrpersonen für den eigenen Unterricht übernommen oder adaptiert werden können (siehe www.matheforscher.de) . In unserem Gespräch gehen wir auf die Frage: Wo bitte ist die Mitte? ein. Für komplexe Gebilde, wie z.B. die Geometrie von Deutschland oder anderen Ländern kann man auf unterschiedliche "Mitten" kommen. Und man findet auch Beispiele, wo die Mitte gar nicht im Innern des Gebietes liegt. Solche Unterrichtsideen helfen Schüler/innen, Mathematik nicht nur als festgefügten Wissenskanon, sondern als kreatives Betätigungsfeld zu erleben, in dem flexibles Denken erforderlich ist.

Wesentlich für einen Mathematikunterricht, der auf diese Weise gestaltet ist, ist eine Kultur, in der das Fragen stellen und Fehler machen möglich sind und ein produktiver Umgang mit Fehlern gepflegt wird. Es hat sich bewährt, die Schülerinnen und Schüler ein Lern- oder Forschertagebuch führen zu lassen (bzw. je nach Vermögen der Lerngruppe, einen mündlichen Austausch anzuregen), um besser zu verstehen, wie die Lernenden denken, wo konkrete Probleme im Verständnis sind, bzw. welche eigenen Ansätze die Kinder entwickeln. Dieser dialogische Ansatz öffnet den Weg zu einem individuellen Austausch zwischen Lehrkräften und Lernenden und öffnet die Perspektive in Richtung inklusiver Lerngruppen.

Ein Unterricht, der Mathematik forschend entwickelt braucht Lehrpersonen mit einem hohen Selbstvertrauen in ihre eigenen mathematischen Fähigkeiten und einer authentischen Begeisterung für das Fach. Damit ergeben sich auch Ziele in der Lehramtsausbildung:

Erlangen fachlicher und fachmethodischer Sicherheit, das Kennenlernen moderner Mathematik und aktueller Forschungsthemen, eine tiefe fachdidaktische Durchdringung von mathematischen Themen, und somit übergreifend: die Stärkung des fachlichen Selbstbewusstseins.

Nach ihrem Abitur 1990 studierte Brigitte Lutz-Westphal an der Hochschule der Künste und der freien Universität Berlin Schulmusik, Violine und Mathematik und hatte dabei 1994-95 auch einen Studienaufenthalt in Paris als Stipendiatin des Briand-Stresemann Programms. Auf ihr erstes Staatsexamen in Musik und Mathematik folgte ihr Referendariat am Karl-von-Frisch-Gymnasium in Dußlingen und am Wildermuth-Gymnasium in Tübingen. Nach dem zweiten Staatsexamen für die Laufbahn des höheren Schuldienstes an Gymnasium in Musik und Mathematik, wurde sie in Berlin als Musikpädagogin und Nachhilfelehrerin selbstständig tätig und begann mit ihren Arbeiten zum Projekt "Diskrete Mathematik für die Schule". Ab 2002 wurde sie als wissenschaftliche Angestellte am Konrad-Zuse-Zentrum für Informationstechnik durch die Volkswagenstiftung für das Projekt "Diskrete Mathematik in der Schule" gefördert. Ab 2004 war sie als wissenschaftliche Mitarbeiterin an der TU Berlin unter anderem im Projekt "Visualisierung von Algorithmen" des DFG-Forschungszentrums MATHEON tätig. 2006 promovierte sie an der TU Berlin mit ihrer Dissertation zum Thema "Kombinatorische Optimierung - Inhalte und Methoden für einen authentischen Mathematikunterricht" bei Prof. Martin Gröschel, und trat eine Vertretungsstelle einer Juniorprofessur für Mathematikdidaktik an der TU Berlin und wurde Mitglied der "Junior Faculty" der Berlin Mathematical School (BMS). 2008 wurde sie auf die W2-Professur für Mathematik und Didaktik der Hochschule Vechta berufen, und ist seit 2009 als W2 Professorin für Didaktik der Mathematik der Freien Universität Berlin. Seit 2009 ist die Mitherausgeberin der "Mitteilungen der Deutschen Mathematiker Vereinigung" und ist seit 2017 Mitglied des Beirats der Stiftung Rechnen.


Literatur und weiterführende Informationen M. Ludwig, B. Lutz-Westphal, C. Benz: Entdeckendes, forschendes und projektartiges Lernen. Best Practice Beispiele aus dem Programm Mathe.Forscher. Stiftung Rechnen, 3. Auflage 2018. (1. Auflage online) P. Linke, B. Lutz-Westphal: Das \"Spot-Modell\" im Mathematikunterricht – forschendes und entdeckendes Lernen fundiert anwenden. In: Beiträge zum Mathematikunterricht. WTM-Verlag. 4 Seiten (in Druck), 2018. M. Ludwig, B. Lutz-Westphal, V. Ulm:Forschendes Lernen im Mathematikunterricht, Mathematische Phänomene aktiv hinterfragen und erforschen. In: Praxis der Mathematik in der Schule Heft 73. S. 2-9, 2017. B. Lutz-Westphal, A. Schulte: Mathematische Forschung – Was Forschendes Lernen im Mathematikunterricht aus der Praxis lernen kann. In: Beiträge zum Mathematikunterricht. WTM-Verlag. S. 1181-1184, 2016. B. Lutz-Westphal: Das forschende Fragen lernen. Pflasterungen: scheinbar Bekanntes neu durchdringen. In: Mathematik lehren Heft 184. S. 16-19, 2014. B. Lutz-Westphal: Mathematik forschend entdecken. In: Stiftung Rechnen (Hg.): Mathe.Forscher. Entdecke Mathematik in deiner Welt. WTM-Verlag Münster, S. 103-112, 2013. B. Lutz-Westphal, K. Skutella: Dialogic learning on a shared theme – approaching inclusive settings in the mathematics classroom. In M. Knigge et al. (Hrsg.) (in Vorbereitung): Inclusive mathematics education. State-of-the-art research from Brazil and Germany. Springer, 2019. S. Hußmann, B. Lutz-Westphal (Hg.):Diskrete Mathematik erleben. Anwendungsbasierte und verstehensorientierte Zugänge. Springer (2. Auflage), 2015. K. Biermann, M. Grötschel, B. Lutz-Westphal, Brigitte (Hg.):Besser als Mathe! Moderne angewandte Mathematik aus dem MATHEON zum Mitmachen. Springer, 2010. Stiftung Rechnen Matheforscher B. Lutz-Westphal: Kinderseite in den Mitteilungen der Deutschen Mathematiker Vereinigung.

Podcasts J.-M. Klinge, G. Thäter: Lerntheken, Gespräch im Modellansatz Podcast, Folge 178, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/lerntheken K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp-week G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp B. Bötcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/meisterklasse G.M. Ziegler, G. Thäter: Was ist Mathematik? Gespräch im Modellansatz Podcast, Folge 111, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/was-ist-mathematik A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine C. Spannagel, S. Ritterbusch: Flipped Classroom, Gespräch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom S. Götz, L. Bodingbauer: Schulmathematik, Gespräch im Lob und Tadel Podcast, Sprechkontakt mit Bildung, Folge 19, 2014.

Hybride Strömungsmodelle

Sep 27, 2018 34:52

Description:

Gudrun ist für die aktuelle Episode zu Gast in der Bundesanstalt für Wasserbau (BAW) am Standort in Karlsruhe.

Die BAW ist etwa so alt wie die Bundesrepublik und grob gesagt zuständig für technisch-wissenschaftliche Aufgaben in allen Bereichen des Verkehrswasserbaus an den Bundeswasserstraßen und für Spezialschiffbau. Dabei berät sie die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV). Heute ist der Hauptsitz der BAW in Karlsruhe. Daneben gibt es noch einen Standort in Hamburg.

Der Anlass des Besuches ist diesmal der Abschluss der Masterarbeit von Axel Rothert zu einer Fragestellung aus der BAW in Karlsruhe. Der Titel der Arbeit ist "Hybride 2D-3D-Simulation von Strömungsprozessen im Nah- und Fernfeld von Wasserbauwerken in OpenFOAM". Sie entstand in enger Zusammenarbeit mit den Kollegen Dr.-Ing. Carsten Thorenz und Franz Simons im Referat Wasserbauwerke der BAW. Nach dem Abschlussvortrag hat sich Gudrun mit Franz Simons und Axel Rothert über die Ergebnisse der Arbeit unterhalten.

Neben traditionellen mathematischen Modellen, die durch physikalische Experimente kalibriert und erprobt werden, haben sich durch den technischen Fortschritt der letzen Jahrzehnte numerische Simulationen inzwischen fest etabliert. Einerseits, um numerische Näherungslösungen für die partiellen Differentialgleichungen des mathematischen Modells zu liefern, andererseits aber auch zur Durchführung virtueller Experimente.

Die Simulation von hydrodynamischen Vorgängen ist hier ein gutes Beispiel. Das Fließen von Wasser muss mit Gleichungen beschrieben werden, die wiederum numerische Lösungen brauchen, wobei durch deren Komplexität auch gleich noch Ansprüche an entweder Hochleistungsrechentechnik (und damit Parallelisierung) oder andererseits gut begründete Vereinfachungen erhoben werden müssen.
Das ganze muss verlässliche Aussagen liefern, damit die BAW z.B. die Hochwasserneutralität eines Wasserbauwerks garantieren kann bevor es endgültig geplant und gebaut wird.

Dabei werden in der dortigen Praxis beide Wege beschritten: man investiert in modernste Rechentechnik und benutzt erprobte Vereinfachungen im Modell. Im Kontext der Umströmung von Wasserbauwerken haben unterschiedliche Regionen verschiedene dominierende Strömungsprozesse: in der Nähe des Bauwerkes gibt es eine starke Interaktion des Fließgewässers mit dem Hindernis, aber in einiger Entfernung kann man diese Interaktion vernachlässigen und den Modellansatz vereinfachen.

Deshalb sollten im Nah- und Fernbereich unterschiedliche Modelle benutzt werden. Konkret sind es in der Arbeit die tiefengemittelten Flachwassergleichungen im Fernfeld und die Reynolds-gemittelten Navier- Stokes-Gleichungen (RANS) im Nahfeld der Wasserbauwerke. Wichtig ist dann natürlich, wie diese Modelle gekoppelt werden. Da eine Informationsübertragung sowohl stromaufwärts als auch stromabwärts möglich ist, ist eine Kopplung in beide Richtungen nötig.

In der vorliegenden Arbeit wurde eine vorhandene Implementierung eines Mehr-Regionen-Lösers in OpenFOAM der TU München so weiter entwickelt, dass er für die Anwendungen in der BAW geeignet ist. Dafür musste sie auf die aktuell an der BAW verwendete Version von OpenFOAM portiert und anschließend parallelisiert werden, damit praxisnahe Probleme der BAW in sinnvollen Rechenzeiten bewältigt werden können. Außerdem mussten die Implementierungen der Randbedingungen so abgeändert werden, dass allgemeine Geometrien für den Untergrund und ein trocken fallen bzw. benetzen mit Wasser möglich sind.

Die Implementierung wurde anhand eines realistischen Beispiels aus dem Verkehrswasserbau bestätigt. Ein etwa 1,1km langer Flussabschnitt wurde hybrid simuliert. Dabei ist ein Staustufe, bestehend aus Wehranlagen, Schleuse und Kraftwerk enthalten.



Literatur und weiterführende Informationen Boyer, F. ; Fabrie, P.: Mathematical Tools for the Study of the Incompressible Navier-Stokes Equations and Related Models. New York : Springer-Verlag, 2013 Gerstner, N. ; Belzner, F. ; Thorenz, C.: Simulation of Flood Scenarios with Combined 2D/3D Numerical Models. In: Lehfeldt, R. (Hrsg.) ; Kopmann, R. (Hrsg.): 11th international conference on hydroscience and engineering. Bundesanstalt für Wasserbau, Karlsruhe, 2014 Mintgen, F.: Coupling of Shallow and Non-Shallow Flow Solvers - An Open Source Framework. München, Technische Universität, Diss., 2017 Mintgen, F. ; Manhart, M.: A bi-directional coupling of 2D shallow water and 3D Reynolds-Averaged Navier-Stokes models. 2018. Begutachtet und angenommen vom Journal of Hydraulic Research. Einsehbar: DOI: 10.1080/00221686.2017.1419989 Uijttewaal, W. S.: Hydrodynamics of shallow flows: application to rivers. In: Journal of Hydraulic Research 52 (2014), Nr. 2, S. 157-172

Podcasts R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Simulierte Welten

Sep 13, 2018 23:45

Description:

Gudrun traf sich mit Maren Hattebuhr und Kirsten Wohak, die wieder ein interessantes Projekt für Schülerinnen und Schüler vorstellen: Simulierte Welten. Unser Alltag wird immer mehr durch Simulationen mitbestimmt. Bei der Wettervorhersage ist das wahrscheinlich vielen Menschen bewußt, aber auch Autos und andere Maschinen werden mittels Rechnungen am Computer entwickelt oder die Wirksamkeit neuer Medikamente getestet. Auch Risikoanalysen oder Wahlvorhersagen basieren immer stärker auf der Interpretation von Simulationsergebnissen. Schülerinnen und Schüler sollen deshalb die Möglichkeit bekommen, schon früh die Bedeutung von Simulationen besser einzuschätzen und ihre Chancen und Risiken aufgrund fundierten Grundwissens besser bewerten zu können.

Das Vorhaben wird vom Steinbuch Centre for Computing (SCC) und dem Höchstleistungsrechenzentrum Stuttgart (HLRS) in Zusammenarbeit mit dem Zentrum für interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS) getragen und arbeitet mit verschiedenen Schulen in Baden-Württemberg zusammen. Gefördert wird das Projekt vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg.

Es gibt für Schulen und Personen folgende Möglichkeiten von dem Projekt zu profitieren:

Doppelstunden, Projekttage oder Projektwochen für die Schule buchen (Abend-) Vorträge zu sich einladen Exkursionen durchführen Fortbildung für Lehrerinnen und Lehrer am SCC bzw. dem HLRS Förderstipendien für Schülerinnen und Schüler für Simulationsthemen

Im Rahmen der Förderstipendien arbeiten die Schülerinnen und Schüler weitgehend selbstständig in Zweierteams an einem echten wissenschaftlichen Projekt an einem der Rechenzentren mit und werden dabei von einer/einem Wissenschaftlerin/Wissenschaftler betreut. Sie erhalten für ihre Arbeiten einen Unkostenbeitrag in Höhe von bis zu 1.000€, welcher für die Anschaffung eines Laptops und anfallende Fahrtkosten gedacht ist. Nach dem erfolgreichen Abschluss des Stipendiums erhalten die Schülerinnen und Schüler zudem ein Zertifikat über ihre Teilnahme.

In der aktuellen Förderperiode ist der Anmeldeschluss der 1. Oktober 2018 und folgende Themen können bearbeitet werden:

Aerosole - Winzige Partikel mit großer Wirkung Simulation und einfach Analyse von Kollisionsdaten der Hochenergiephysik Einblicke in unseren Körper durch Computertomographie Chemie-Klimasimulationen mit EMAC Simulation von biologischen Zellen

Schülerinnen und Schüler sollten folgende Unterlagen bei der Kontaktadresse schriftlich oder elektronisch per E-Mail an CAMMP@SCC.kit.edu einreichen:

ausgefüllter Bewerbungsbogen Ein Empfehlungsschreiben einer Lehrkraft von der Schule, die den Schüler/die Schülerin unterstützt und CAMMP als Ansprechpartner zur Verfügung steht. Dieses dient dazu den Schüler/die Schülerin besser kennenzulernen. Zeugniskopie Lebenslauf >Referenzen Alle Informationen zum Förderstipendium am SCC auf einen Blick Direkter Kontakt zum Projekt Simulierte Welten Auswahl an Episoden zu Simulationen B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, S. Krömker: Computergrafik, Gespräch im Modellansatz Podcast, Folge 166, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. O. Beige, G. Thäter: Wahlprognosemodelle, Gespräch im Modellansatz Podcast, Folge 149, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Bertozzi, G. Thäter: Crime Prevention, Gespräch im Modellansatz Podcast, Folge 109, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Lerntheken

Sep 6, 2018 54:50

Description:

Gemeinsam geht vieles besser. Auch deshalb reden wir im Podcast über Mathematik oder darüber wie wir Mathematik lernen bzw. unterrichten möchten. Im Internet setzen sich solche Gespräche manchmal fort. In der Netzgemeinschaft rund um den Podcast hat Gudrun Jan-Martin Klinge gefunden - oder genauer sein Blog Halbtagsblog. Dort finden sich seine Beobachtungen aus dem Alltag als Lehrer für Mathematik, Physik und Arbeitslehre in einer Gesamtschule in Raum Siegen. Dabei mischt sich ganz natürlich privates mit unterschiedlichen beruflichen Aspekten, denn es ist seine persönliche Reflektion über das was gelingt, erzählenswert ist oder bedenkenswert.

Schon bald hatte Gudrun den Wunsch, einen Aspekt daraus für den Podcast aufzugreifen, nämlich Jan-Martins ganz praktische Erfahrungen mit Lerntheken. Diese setzt er in der Sekundarstufe 1 vor allem im Mathematikunterricht ein. Wie von Gudrun im Stillen erhofft, war die generelle Bereitschaft zum Gespräch schnell und enthusiastisch erklärt und es musste "nur noch" ein passender Termin gefunden werden, was ein paar Monate dauerte. Aber am 24. August 2018 war es so weit: Gudrun kam am Siegener Hauptbahnhof an und in einem netten Café schräg gegenüber entstand die vorliegende Aufzeichnung.

Wie bei allen Konzepten und Methoden gibt es Theorie und Praxis. Die Lerntheke an und für sich ist für Lehrende eine wohlbekanntes und vor allem im Unterricht für junge Schülerinnen und Schüler auch eine gut etablierte offene Unterrichtsform. Für sehr heterogenen Lerngruppen ist ihre größte Stärke, dass qua Konzept alle im eigenen Tempo unterwegs sein können. Und dass nicht nur eine Lehrperson vorn an der Tafel die Rolle hat, alles für alle erklären zu müssen, sondern auch Mitschüler diesen Platz einnehmen können und dabei ihre Hilfe an die Bedürfnisse des Gegenübers recht genau anpassen können.

Außerhalb der Primarstufe ist das Konzept in der Praxis an deutschen Schulen jedoch eher in einer Nische zu Hause. Dafür gibt es viele und gut nachvollziehbare Gründe. Andererseits zeigen aber auch solche Beispiele, wie der Alltag in Jan-Martins Unterricht, dass es gut funktioniert. Durch das Beispiel lassen sich andere anstecken, es ähnlich oder genauso auch selbst zu probieren (aktuell hat der Blogbeitrag zu "Was sind Lerntheken" z.B. etwa 150 Antworten).

Im Mathematik-Unterricht von Jan-Martin Klinge startet jedes Thema mit zwei bis drei "normalen" Mathematikstunden (also Frontalunterricht) in denen das Thema eingeführt wird. Anschließend arbeiten die Schülerinnen und Schüler einzeln oder in Gruppen mit Karten, auf denen konkrete Rechenaufgaben geübt, Probleme erforscht oder mathematische Spiele gespielt werden. Die Karten haben einen Farbcode, an dem man ablesen kann, ob es sich eher um einfache, mittelschwere oder komplexere Aufgaben handelt. Am Ende jedes Themas sollen die Kinder die mittelschweren Aufgaben bearbeiten können. Aber auch die, bei denen es richtig "Click" gemacht hat, haben genug Material mit dem sie interessantes zum Thema ausprobieren können.

Zusätzlich gibt es Karten mit Lernhilfen zu einzelnen Schritten oder Regeln. Auf den Aufgabenkarten ist jeweils vermerkt, welche Hilfskarte weiterhelfen kann. Außerdem gibt es an der Tafel eine Namensliste von Mitschülerinnen und -schülern, die für Nachfragen zur Verfügung stehen.

Besonders im Unterricht für die jüngeren Schüler gibt es am Ende jedes Themas noch eine Sicherungsphase.

Im Physikunterricht benutzt Jan-Martin Klinge die Lerntheken eher in der Phase, wo gelerntes wiederholt und gefestigt werden soll, da dort die Dichte an neuen Themen größer ist als in der Mathematik.

Zusammen mit Kollegen hat Jan-Martin Klinge die Kartensammelung auch übersetzt in andere Sprachen und mit anderen Medien und Anwendungsfällen verbunden. Besonders auf Geräten wie einem iPad ist die Realisierung leicht möglich, weil dort leicht zwischen Sprachen gewechselt werden kann, wenn Schüler in Willkommensklassen das möchten. Dafür gab es sogar 2017 die Auszeichnung mit dem Deutschen Lehrerpreis. Das Projekt ist nicht abgeschlossen und Helfer für möglichst viele Sprachen werden noch mit offenen Armen empfangen.



Literatur und weiterführende Informationen J.-M. Klinge: Was sind Lerntheken? Halbtagsblog, 2013. Download von unterschiedlichen Lerntheken J.-M. Klinge und R. Kara: Mit Lerntheken den Mathematikunterricht neu gestalten, ISBN: 978-1520321479, 2017 J.-M. Klinge: Die Physik von Hollywood: Mit aktuellen Kinofilmen Impulse für den Unterricht gewinnen, ISBN 978-1521035474, 2017. Beschreibung des Projektes für den Deutschen Lehrerpreis, 2017.

Podcasts K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp-week G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp B. Bötcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/meisterklasse G.M. Ziegler, G. Thäter: Was ist Mathematik? Gespräch im Modellansatz Podcast, Folge 111, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/was-ist-mathematik A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor C. Spannagel, S. Ritterbusch: Flipped Classroom, Gespräch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom

FPGA Seitenkanäle

Aug 16, 2018 54:10

Description:

Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf sich Sebastian mit Dennis Gnad, um mit ihm über Seitenangriffe auf Field Programmable Gate Arrays (FPGA) zu sprechen.

FPGAs sind veränderliche Computerchips, die hervorragend bei der Entwicklung von logischen Schaltkreisen oder spezieller Glue Logic helfen, und kommen inzwischen auch als Rechenbeschleuniger zum Einsatz. Man kann FPGAs als Vorstufe zu Application-Specific Integrated Circuits (ASIC) sehen, auf denen Strukturen noch viel feiner, für höhere Taktraten und sparsamer abgebildet werden können, das Design aber um Größenordnungen teurer ist. Und während einem ASIC die Funktion ab Werk einbelichtet ist, können FPGAs nahezu beliebig oft zur Laufzeit umprogrammiert werden.

Wie im Podcast zu digitalen Währungen erwähnt, spielen Graphical Process Units (GPUs), FPGAs und ASICs eine große Rolle bei Kryptowährungen. Hier ist ein einzelner FPGA-Chip beim so genannten Mining meisst nicht schneller als eine GPU, verbrauchen jedoch im Vergleich deutlich weniger Strom. Spezialisierte ASICs hingegen übersteigen in Effizienz und Geschwindigkeit alle anderen Lösungen.

FPGAs finden sich aktuell in vielen Consumer-Produkten, wie dem Apple iPhone 7, im Samsung Galaxy S5, Smart-TVs und selbst auch der Pebble Smartwatch. Ihren besonderen Vorteil spielen FPGAs bei der Verarbeitung von großen Datenmengen wie Videodaten aus, da sie in der Parallelisierung nur durch den verfügbaren Platz beschränkt sind.

Die Beschreibung von FPGAs und ASICs, oder deren Programmierung, erfolgt eher strukturell in Hardwarebeschreibungssprachen wie Verilog oder VHDL. Diese Beschreibungen unterscheiden sich sehr von imperativen Programmiersprachen, wie sie oft für CPUs oder GPUs verwendet werden.

Es werden in logischen oder kombinatorischen Blöcken Daten verarbeitet, die dann in Taktschritten von und in Datenregister übertragen werden. Die erreichbare Taktfrequenz hängt von der Komplexität der kombinatorischen Blöcke ab. Ein Beispiel für logische Blöcke können Soft-Cores sein, wo zukünftige oder nicht mehr erhältliche CPU-Designs in FPGAs zur Evaluation oder Rekonstruktion abgebildet werden.

Eine Variante ist die Entwicklung in OpenCL, wo verschiedene Architekturen wie GPUs, CPUs und FPGA unterstützt werden. Für die effiziente Umsetzung ist dafür weiterhin großes Hardwarewissen erforderlich, und man kann nicht erwarten, dass Code für FPGAs ebenso auf GPU, oder umgekehrt CPU-Code in FPGAs darstellbar ist.

Das Interesse von Dennis Gnad liegt bei den FPGAs darin, deren Daten, Logik oder Inhalte durch Seitenkanalangriffe in von den Entwicklern unvorhergesehener Art und Weise auszulesen. Ein Beispiel ist das Erkennen von Fernsehsendungen aus dem Stromverbrauch des Fernsehgeräts wie es auch schon im Podcast zu Smart Metern beschrieben wurde. Ebenso wurden schon Kryptoschlüssel aus Geräuschen einer CPU bestimmt. Mit Soundkarten kann man Funkuhren verstellen und auch Grafikkarten können als UKW-Sender verwendet werden. Die elektromagnetische Abstrahlung ist ein sehr klassischer Seitenkanal und ist als Van-Eck-Phreaking seit 1985 bekannt. Gerade wurden die Timing- und Speculative-Execution-Covered-Channel-Angriffe Spectre und Meltdown für einen großteil aktueller CPUs bekannt, die aktiv Seitenkanäle für verdeckten Informationszugriff nutzen.

Normalerweise benötigen Power-Side-Angriffe, die den Stromverbrauch auswerten, physischen Zugang zum Gerät oder der Stromversorgung. Überraschenderweise ist es auf FPGAs hingegen möglich den Stromverbrauch anderer Schaltungsbestandteile rein durch Software zu bestimmen. Dazu werden FPGAs an der Grenze der Timing-Parameter betrieben, und statistisch die erfolgreiche Ausführung gemessen. Mit verschieden langen Pfaden können auch gleichzeitig die Zeitschranken verschieden stark belastet werden und damit gleichzeitig für mehrere Spannungsstufen ausgewertet werden. Damit kann der relative Spannungsverlauf kontinuierlich gemessen werden. Im Zuge seiner Forschung zu Voltage Fluctuations in FPGAs konnte Dennis Gnad die Qualität der Messungen nachweisen.

Für die eigentliche Auswertung der Messungen werden hier die Verfahren der Differential Power Analysis verwendet, die nicht absolute Messungen, sondern mit relativen Messungen den Verlauf oder Unterschiede in den Verläufen statistisch analysieren. Speziell wurden mit dem Pearson Korrelations-Koeffizient verschiedene Schlüssel-Hypothesen mit modellierten Stromverläufen aufgestellt, um den Suchraum für einen kryptographischen AES-Schlüssel jeweils stückweise einzuschränken. Dafür musste die spezielle AES-Implementation auf dem FPGA bekannt sein, um entsprechende Leakage-Modelle für die Korrelationsauswertung aufstellen zu können. Insgesamt wurde so ein rein software-getriebener Angriff auf FPGAs demonstriert, der ohne sehr aufwändiges Code-Review-Verfahren, dessen Umsetzung bei VHDL ohnehin große Fragen aufwirft, kaum zu entdecken ist.

Dennis betreibt die Forschung als Doktorand am Chair of Dependable Nano Computing (CDNC) am Karlsruher Institut für Technologie (KIT), deren Forschung besonders auf die Verlässlichkeit und auch der Sicherheit von Computersystemen abzielt. Die Forschungsarbeiten zu Seitenkanälen über den Stromverbrauch haben ebenso Anwendungen für die Zuverlässigkeit von den Systemen, da ebenso mit der Messung auch eine entsprechende Beeinflussung bis zur Erzeugung von Fehlerzuständen möglich wird, wie es von Dennis durch Fehlerzustände in der Stromversorgung zum Neustart von FPGAs demonstriert werden konnte. Mit Stuxnet wurde bekannt, dass auch Industrieanlagen mit Software zerstört werden konnten, es gab aber auch Computermonitore, die kreativ in neue Nutzungszustände gebracht wurden.

Literatur und weiterführende Informationen D. Gnad: Seitenkanal-Angriffe innerhalb FPGA-Chips, Vortrag auf der GPN18, Karlsruhe, 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: An Inside Job: Remote Power Analysis Attacks on FPGAs, Cryptology ePrint Archive: Report 2018/012, Proceedings of Design, Automation & Test in Europe (DATE), 2018. D. Gnad, F. Oboril, M. Tahoori: Voltage Drop-based Fault Attacks on FPGAs using Valid Bitstreams, International Conference on Field-Programmable Logic and Applications (FPL), Belgium, 2017. A. Moradi, F.-X. Standaert: Moments-Correlating DPA, Cryptology ePrint Archive: Report 2014/409, Theory of Implementations workshop, 2016. P. Kocher, J. Jaffe, B. Jun, et al: Introduction to differential power analysis, J Cryptogr Eng 1: 5, 2011. E. Brier, C. Clavier, F. Olivier: Correlation power analysis with a leakage model, International workshop on cryptographic hardware and embedded systems. Springer, Berlin, Heidelberg, 2004. Cryptology ePrint Archive Search Portal Side Channel Cryptanalysis Lounge - Ruhr-Universität Bochum D. Gnad, F. Oboril, S. Kiamehr, M. Tahoori: An Experimental Evaluation and Analysis of Transient Voltage Fluctuations in FPGAs, in IEEE Transactions on Very Large Scale Integration Systems (TVLSI), 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: Remote Inter-Chip Power Analysis Side-Channel Attacks at Board-Level], In Proceedings of IEEE/ACM International Conference on Computer-Aided Design (ICCAD), USA, 2018. (to appear Nov. '18) J. Krautter, D. Gnad, M. Tahoori: FPGAhammer: Remote Voltage Fault Attacks on Shared FPGAs, suitable for DFA on AES], in IACR Transactions on Cryptographic Hardware and Embedded Systems (TCHES), Vol.1, No.3, 2018. (to appear Sept. '18)
Podcasts A.-L. Baecker, C. Schrimpe: Crypto for the Masses – Grundlagen, Request for Comments, Der RFC Podcast, Folge 15, 2018. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Ritterbusch, G. Thäter: Digitale Währungen, Gespräch im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. B. Heinz, T. Pritlove: FPGA, CRE: Technik, Kultur, Gesellschaft, Folge 117, Metaebene Personal Media, 2009.
GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter
GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Mechanical Engineering

Aug 2, 2018 53:29

Description:

In the last two semesters Gudrun has taught the courses Advanced Mathematics I and II for Mechanical Engineers. This is a mandatory lecture for the International mechanical engineering students at KIT in their first year of the Bachelor program. This program is organized by the Carl Benz School of Engineering. Beside the study courses, the school also provides common housing for students coming to Karlsruhe from all over the world.

The general structure and topics of the first year in Advanced Mathematics were already discussed in our episode 146 Advanced Mathematics with Jonathan Rollin.

This time Gudrun invited two students from her course to have the student's perspective, talking about mathematics, life, and everything.
Yueyang Cai grew up mostly in China. In 2015, the work of her mother led Yueyang to Stuttgart. While looking for opportunities to study a technical subject in Germany the English speaking program in Karlsruhe somehow suggested itself. After one year she is sure to have made the right decision.

The second student in the conversation is Siddhant Dhanrajani. His family is Indian but lives in Dubai. For that he got his education in Dubai in an Indian community follwowing the Indian educational system (CBSE). He had never heard of the Engineering program in Karlsruhe but found it through thourough research. He is really amazed at how such an excellent study program and such an excellent university as the KIT are not better known for their value in the world.

In the conversation both students talk about their education in their respective countries, their hopes and plans for the study course mechanical engineering and their experiences in the first year here in Karlsruhe. It is very interesting to see how the different ways to teach mathematics, namely, either as a toolbox full of recipes (which the students get well-trained in) or secondly as a way to approach problems in a context of a mathematical education contribute to an experience to be well-equipped to work creative and with a lot of potential as an engineer.

Though the students finished only the first year in a three years course they already work towards applications and necessary certificates for their possible master program after finishing the course in Karlsruhe.

Related Podcasts G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Flugunfälle

Jul 26, 2018 1:22:29

Description:

Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Bernd Sieker und sprach mit ihm um Unfälle mit Autopiloten mit Flugzeugen und Automobilen.

Der Flugreiseverkehr ist inzwischen sehr sicher, es verbleibt aber ein Restrisiko, das man an den sehr seltenen Flugunfällen erkennen kann. Bernd untersucht nun die wenigen Abstürze großer Airliner, die es noch gab, und fragt sich, wie es zu diesen Katastrophen kommen konnte.

Beispiele für Unfallursachen können beispielsweise Ausfälle scheinbar weniger relevanter Systeme sein, wo von der Crew Entscheidungen getroffen werden, die sie für sinnvoll halten, sich aber später als problematisch herausstellen. Technische Schäden, die unmittelbar zum Absturz führen, sind inzwischen sehr selten. Und selbst scheinbare kritische Ausfälle wie Triebwerksausfälle werden geübt und es gibt Prozeduren, wie man in diesen Fällen das Flugzeug möglichst sicher landen können sollte.

Im Segelflug gehört eine Außenlandung auf freiem Feld zum Normalbetrieb, wobei man natürlich für am Boden etwaig entstandenen Schaden aufkommen muss, falls der Landwirt darauf besteht. Eine entsprechende nicht genehmigte Sicherheits- oder Notlandung führt bei Motorflugzeugen zur Auskunfts- oder Meldepflicht mit entsprechenden Auflagen zum Abtransport oder Erlaubnis zum Wiederstart.

Bei der Untersuchung von Unglücksfällen geht der erste Blick auf offizielle Berichte oder Untersuchungen. So auch beim Air-France Flug 447 von 2009, wo ein Airbus A330-203 mitten über dem Atlantik plötzlich verschwand. Erste Indizien auf das Unglück wurden durch ACARS-System über Satellit empfangen, unter anderem über den Ausfall von Staurohren, mit denen die Geschwindigkeit des Flugzeugs gemessen wird. Das ist ein dramatischer Ausfall an Information, mit dem die Piloten aber umgehen können müssten und der eigentlich nicht zu einem Absturz führen sollte, denn die Geschwindigkeit ist noch mittels anderer Sensoren erkennbar. Erste gefundene Wrackteile deuteten darauf hin, dass das Flugzeug fast senkrecht in horizontaler Lage auf das Wasser aufgeschlagen sein musste. Dies führte auf die Vermutung, dass das Flugzeug überzogen wurde, bis es zum Strömungsabriss kam, und es daraufhin einfach herunterfiel.

Nach Bergung des Flugschreibers bestätigte sich der vermutete Ablauf. Er wurde durch einen überraschend kurzen Zeitraum von wenigen Minuten zwischen Fehlermeldung und Absturz aus Reiseflughöhe belegt. Die Piloten müssen in der widersprüchlichen Situation gewesen sein, dass ihnen der Sink"flug" angezeigt wurde, während die Nase des Flugzeugs nach oben zeigte, was laut Training normalerweise in diesem Flugzustand nicht möglich ist. Bei dem eingesetzten Fly-by-wire System wäre eigentlich auch kein Strömungsabriss möglich gewesen. Nach Ausfall der Staurohre führte nun die Verkettung zwischen unvorhersehbarem Flugzeugzustand und der dramatischen Fehlinterpretation durch die Piloten zum Absturz.

In der Ursachenanalyse ist sowohl zu beachten, dass die Warnmeldungen zum Strömungsabriss von den Piloten womöglich wegen einer Vielzahl von Warnmeldungen nicht mehr erfasst werden konnte. Ebenso wurden widersprüchliche Angaben zur Fluggeschwindigkeit und Anstellwinkeln von den Systemen des Flugzeugs irgendwann als ungültig abgewiesen und entsprechende Warnungen abgeschaltet oder nur noch widersprüchlich wiedergegeben.

Dies führt zur Betrachtung solcher Systeme unter dem Aspekt, dass sie sozio-technisch sind, mit der Einsicht, dass gerade bei der Übertragung von Aufgaben des Menschen an Technik und zurück ein besonderes und schwer vorhersehbares Fehlerpotenzial besteht. Insbesondere Autopiloten haben eine besondere Bedeutung, da sie direkt in die Aufgaben der steuernden Menschen eingreifen. Klassisch steuern Autopiloten nur in sehr engen Parametern wie einzuhaltende Richtung, Höhe, Querneigung der Sink-/Steiggeschwindigkeit. Im Auto sind schon Geschwindigkeits- und Abstandsautomatik üblich. Jedoch sind auch Landungen mit Autopilot möglich, die aber ein besonderes Training und Überprüfung von Mensch und Maschine und Verbesserung der Algorithmen und redundante Sensoren erfordern. Dies zeigt schon, wie kritisch Autopiloten im Automobil zu sehen sind, da hier bisher kein besonderes Training für die Verwendung von Autopiloten erfolgt. Eine Überraschung ist dabei, dass eine besondere Gefahr daraus entsteht, wenn Autopiloten so zuverlässig werden dass sich Menschen zu sehr auf sie verlassen. Überraschende Situationen kann aber der Mensch meist besser bewältigen.

Bei der Untersuchung von Flugunfällen stellt sich besonders die Frage, welche Ereignisse die eigentliche Ursache also für das Unglück verantwortlich sind. Wie ist hier Kausalität zu definieren? An der Uni Bielefeld wurde in der Arbeitsgruppe von Prof. Ladkin dazu die Why-Because-Analysis (WBA) entwickelt, wo die Counterfactual Test Theory von David Lewis zum Einsatz kommt. Aus der Überprüfung, ob ein Ereignis notwendig und die Menge der gefunden Ereignisse hinreichend für die Entstehung eines Ereignisses war, entsteht ein kausaler "Why-Because"-Graph (WBG), der genau nur die Ereignisse zusammenfasst, die notwendig zum Unglück führten.

Ein interessantes philosophisches Konstrukt ist hier die Nearest-Possible-World-Theory, die ein Szenario konstruiert, das dem Unglück möglichst stark ähnelt, für das aber es nicht zum Unglück gekommen wäre. Was war hier anders? Was können wir daraus lernen?

Durch Vergleich mit vorherigen dokumentierten Ereignissen können Teile des WBG auch quantitativ bewertet werden, obgleich die Datenbasis oft sehr gering ist. Dennoch können Schlüsse gezogen werden, welche Ereignisse bisher ignoriert wurden und ob dies gerechtfertigt ist.

Das National Transportation Safety Board (NTSB) befasst sich in den USA wie die Bundesstelle für Flugunfalluntersuchung (BFU) in Deutschland typischerweise mit der Aufarbeitung von Unglücksfällen, und wie diesen in Zukunft entgegengewirkt werden kann. Darüber hinaus haben ebenso Versicherungen von Fluggesellschaften ein großes Interesse an einer Aufarbeitung, da die Fluggesellschaften in vielen Bereichen für Unglücke haftbar sind, soweit sie nicht nachweisen können, dass die Hersteller verantwortlich zu machen sind.

Während des Asiana Airlines Flug 214 kam es in einer Boeing 777 im Anflug auf San Francisco 2013 im Landeanflug zu einer "Mode Confusion" beim Autopilot: Die erwartete Schubregulierung blieb aus, und es kam zu einem Absturz. Im Fall des Turkish Airlines Flug 1951 mit einer Boeing 737 nach Amsterdam gab es im Anflug einen Fehler im Radarhöhenmessgerät, wodurch der Autopilot in Erwartung der Landung aktiv den Schub zurückregelte. Die Korrektur der Piloten schlug fehl, da sie sich nicht über die genauen Abläufe im Klaren waren.

Dies deutet schon deutlich darauf, dass Schwierigkeiten beim Einsatz von Autopiloten im automobilen Umfeld zu erwarten sind. Darüber hinaus sind die erforderlichen menschlichen Reaktionszeiten im Auto deutlich kürzer, so dass Missverständnisse oder das An- oder Abschalten von Autopilot-Funktionen deutlich leichter zu Unglücken führen können. Eine wichtige Einstufung sind hier die erreichten SAE Autonomiestufen, die beschreiben, wie weit das Fahrzeug Aufgaben des Fahrens übernehmen kann. Besonders problematisch ist Autonomiestufe 3: Hier darf der Fahrer sich während der Fahrt anderen Dingen als der Fahrzeugführung zuwenden, muss aber nach einer gewisse Vorwarnzeit wieder die Führung wieder übernnehmen können. Selbst bei wenigen Sekunden wird dies bei höheren Geschwindigkeiten sehr schwer zu erfüllen sein. Bei Stufe 4 muss das Fahrzeug auch ohne Fahrerintervention sicher bleiben, notfalls durch Anhalten, Stufe 5 ist vollständig autonom von Tür zu Tür.

Ein weiterer Gesichtspunkt ist die vorhandene Sensoraustattung und deren Ausfallsicherheit oder die Interpretation der Sensormessungen. Im Fall des Unfalls eines Uber-Autos am 18. März 2018 in Arizona wurde eine Fußgängerin von den Sensoren zwar erfasst, jedoch wurden die Detektion durch die Software als Fehler zurückgewiesen und es kam zum Unfall. Die hier verwendete Software war und wird weit weniger getestet und formal geprüft als Software im Luftfahrtumfeld, da dies auch im Bezug auf neuronale Bilderkennungsverfahren schwer umzusetzen sein wird.

Ein weiterer Aspekt ist, dass selbst wenn ein sozio-technisches System sicherer als Menschen fährt, die Akzeptanz nur sehr schwer zu erreichen sein und viele rechtliche und ethische Fragen zunächst zu klären wären.

Vielen Dank an Markus Völter für die Unterstützung in dieser Folge.


Literatur und weiterführende Informationen D. Lewis: Counterfactuals and comparative possibility, Springer, Dordrecht, 57-85, 1973. P. Ladkin: Causal reasoning about aircraft accidents, International Conference on Computer Safety, Reliability, and Security. Springer, Berlin, Heidelberg, 2000. B. Sieker: Visualisation Concepts and Improved Software Tools for Causal System Analysis, Diplomarbeit an der Technischen Fakultät der Universität Bielefeld, 2004. B. Sieker: Systemanforderungsanalyse von Bahnbetriebsverfahren mit Hilfe der Ontological Hazard Analysis am Beispiel des Zugleitbetriebs nach FV-NE, Dissertation an der Technischen Fakultät der Universität Bielefeld, 2010. Causalis Limited Research Group Networks, System Safety, Embedded and Distributed Systems B. Sieker: Hold Steering Wheel! Autopilots and Autonomous Driving. Presentation at the Gulaschprogrammiernacht 18, ZKM/HfG, Karlsruhe, 2018. B. Sieker: What's It Doing Now? The Role of Automation Dependency in Aviation Accidents. Presentation at the Chaos Communication Congress 33C3, 2016.
Podcasts H. Butz, M. Völter: Komplexe Systeme, Folge 058 im omega tau Podcast, Markus Völter und Nora Ludewig, 2011. S. B. Johnson, M. Völter: System Health Management, Episode 100 in the omega tau Podcast, Markus Völter and Nora Ludewig, 2012. R. Reichel, M. Völter: Fly by Wire im A320, Folge 138 im omega tau Podcast, Markus Völter und Nora Ludewig, 2014. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. P. Nathen, G. Thäter: Lilium, Gespräch im Modellansatz Podcast, Folge 145, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

GPN18 Special B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter
GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

CAMMP Week

Jul 20, 2018 39:45

Description:

In dieser Folge unterhält sich Gudrun gleich mit vier Personen. Im Gespräch geht es um ein ganz besonderes Angebot für Schülerinnen und Schüler: die CAMMP-week. Die Abkürzung CAMMP steht hier für "Computational and Mathematical Modeling Program" (deutsch: "Computergestütztes Mathematisches Modellierungsprogramm"). Das Programm wurde in der Arbeitsgruppe von Martin Frank während seiner Tätigkeit an der RWTH in Aachen entwickelt. Mit seinem Wechsel ans KIT in Karlsruhe gibt es nun seit Januar 2018 auch ein Standbein am KIT. Mit Kirsten Wohak hatte Gudrun schon über das Konzept, die Idee und konkrete Beispiele für CAMMP gesprochen. Dabei entstand der Wunsch, unbedingt auch Schülerinnen und Schüler zu Wort kommen zu lassen, die an einer CAMMP-Veranstaltung teilgenommen haben.

Elly Bastian und Christian Beitzinger haben vom 24.-29. Juni 2018 an der diesjährigen CAMMP week in der Jugendherberge in Voeren (Belgien) teilgenommen und hatten Lust, im Podcast über ihre Erfahrungen zu berichten. Elly ist derzeit noch Schülerin der 10. Klasse am Goethe-Gymnasium in Gaggenau und Christian ist in der K1 im Tulla-Gymnasium in Rastatt.

Zwei Programmgestalterinnen waren ebenfalls mit in der Podcast-Gesprächsrunde, nämlich Kirsten Wohak und Maren Hattebuhr. Sie gehören am KIT zur Arbeitsgruppe von Martin Frank Computational Science and Mathematical Methods. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik.

Das Angebot der CAMMP week richtet sich an Schüler und Schülerinnen der Oberstufe, die an Mathematik interessiert sind, an Mathematiklehrpersonen sowie Personen im Referendariat oder Lehramtsstudium und findet jährlich in der Jugendherberge in Voeren in Belgien statt. In Karlsruhe wird zusätzlich noch eine zweite Modellierungswoche in Zusammenarbeit mit dem MINT-EC angeboten, an welcher Schülerinnen und Schüler von Schulen, die Teil des MINT-Schulnetzwerks sind, teilnehmen können. In beiden Wochen werden die Teilnehmenden in Gruppen aufgeteilt, die jeweils aus sechs Schülerinnen und Schülern und zwei (angehenden) Lehrkräften bestehen. Bei den zu lösenden Problemen handelt es sich um reale Fragestellungen aus der Forschung von Firmen oder Universitätsinstituten.

Jede Gruppe erhält eine individuelle Aufgabenstellung, an der sie innerhalb der fünf Tage forscht. Dabei wird sie auch wissenschaftlich betreut. Die Schülerteams präsentieren ihre Ergebnisse den Firmen am Ende der Woche im Rahmen einer repräsentativen Abschlussveranstaltung. Hier sind auch die Familien und die Schulen dabei.

Welche Wege führen junge Menschen nun in die CAMMP week?

Elly hatte Anfang 2018 die Arbeit der Gruppe um Martin Frank im Rahmen ihres BOGY-Praktikums kennen gelernt und dabei Lust bekommen, noch mehr praktische Mathematik zu machen. Obwohl sie keine andere Person kannte, die auch nach Belgien fahren würde, war ihre Lust so groß, dass sie sich auf das Abenteuer einlassen wollte. Christian wurde von seinem Mathelehrer auf die Möglichkeit hingewiesen und hatte sich mit Mitschülern abgesprochen. Beide berichteten darüber, dass sie in der jeweiligen Gruppe mit viel Enthusiasmus arbeiten konnten, viele Ideen geboren und wieder verworfen wurden und am Ende auch in schwierigen Phasen ein Ausweg gefunden wurde.

Es war eine interessante Erfahrungen, mit anderen Schülerinnen und Schülern zusammen zu sein, die auch Begeisterung für Mathematik empfinden. Beide haben nun ein neues Bild von Mathematik und den Möglichkeiten einer späteren Berufstätigkeit mit einer mathematischen Vorbildung und würden auch gern wieder an einer CAMMP week teilnehmen.

Podcasts E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Frank: Kinetische Theorie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 152, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. B. Böttcher: Meisterklasse, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.

10 Jahre Omega Tau Podcast

10 Jahre Omega Tau Podcast

Dynamical Sampling

Jul 13, 2018 33:23

Description:

Gudrun met the USA-based mathematician Roza Aceska from Macedonia in Turin at the Conference MicroLocal and Time-Frequency Analysis 2018.

Mathematical Department, University of Turin, Photo: G.Thäter

The topic of the recorded conversation is dynamical sampling. The situation which Roza and other mathematician study is: There is a process which develops over time which in principle is well understood. In mathematical terms this means we know the equation which governs our model of the process or in other words we know the family of evolution operators. Often this is a partial differential equation which accounts for changes in time and in 1, 2 or 3 spatial variables. This means, if we know the initial situation (i.e. the initial conditions in mathematical terms), we can numerically calculate good approximations for the instances the process will have at all places and at all times in the future.

But in general when observing a process life is not that well sorted. Instead we might know the principal equation but only through (maybe only a few) measurements we can find information about the initial condition or material constants for the process. This leads to two questions: How many measurements are necessary in order to obtain the full information (i.e. to have exact knowledge)? Are there possibilities to choose the time and the spatial situation of a measurement so clever as to gain as much as possible new information from any measurement? These are mathematical questions which are answered through studying the equations.

The science of sampling started in the 1940s with Claude Shannon who found fundamental limits of signal processing. He developed a precise framework - the so-called information theory. Sampling and reconstruction theory is important because it serves as a bridge between the modern digital world and the analog world of continuous functions. It is surprising to see how many applications rely on taking samples in order to understand processes. A few examples in our everyday life are: Audio signal processing (electrical signals representing sound of speech or music), image processing, and wireless communication. But also seismology or genomics can only develop models by taking very intelligent sample measurements, or, in other words, by making the most scientific sense out of available measurements.

The new development in dynamical sampling is, that in following a process over time it might by possible to find good options to gain valuable information about the process at different time instances, as well as different spatial locations. In practice, increasing the number of spatially used sensors is more expensive (or even impossible) than increasing the temporal sampling density. These issues are overcome by a spatio-temporal sampling framework in evolution processes. The idea is to use a reduced number of sensors with each being activated more frequently. Roza refers to a paper by Enrique Zuazua in which he and his co-author study the heat equation and construct a series of later-time measurements at a single location throughout the underlying process. The heat equation is prototypical and one can use similar ideas in a more general setting. This is one topic on which Roza and her co-workers succeeded and want to proceed further.

After Roza graduated with a Ph.D. in Mathematics at the University of Vienna she worked as Assistant Professor at the University Ss Cyril and Methodius in Skopje (Macedonia), and after that at the Vanderbilt University in Nashville (Tennessee). Nowadays she is a faculty member of Ball State University in Muncie (Indiana).

References Overview on sampling theory and applications: M. Unser: Sampling-50 years after Shannon Proceedings of the IEEE 88 (4) 569 - 587, 2000. Dynamical sampling in shift-invariant spaces: R. Aceska e.a.: Dynamical Sampling in Shift-Invariant Spaces 2014 (Version at Archive} Dynamical sampling: R. Aceska, A. Petrosyan, S. Tang: Dynamical sampling of two-dimensional temporally-varying signals International Conference on Sampling Theory and Applications (SampTA), DOI:10.1109/SAMPTA.2015.7148929, 2015. DeVore, Ronald, and Enrique Zuazua: Recovery of an initial temperature from discrete sampling, Mathematical Models and Methods in Applied Sciences 24.12 (2014): 2487-2501, 2014. Evolution operators involved in dynamical sampling: S. Tang: System identification in dynamical sampling, Advances in Computational Mathematics 43 (3) 555–580, 2017. On Bessel systems, bases and frames in the dynamical sampling setup: A.Aldroubi e.a.:lterative actions of normal operators Journal of Functional Analysis 272 (3), 1121-1146, 2017. Related Podcasts G. Thäter, E. Zuazua: Waves, Conversation in Modellansatz Podcast Episode 054, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

Sternenschwerpunkt

Jul 6, 2018 54:59

Description:

Am Rande des Treffens des German Chapters of European Women in Mathematics sprach Gudrun mit Carla Cederbaum. Das Treffen der Mathematikerinnen fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Carla hielt einen der Hauptvorträge und gab einen Einblick in ihre Forschung unter dem Titel "Where is the center of mass of a star -- and what does this have to do with Mathematics?"

Die Ideen der Vorlesung dienten als Einstieg in das Gespräch zum Arbeitsgebiet von Carla: Mathematische Relativitätstheorie. Dieses Thema schlägt eine Brücke zwischen Physik und Mathematik. Carla hat sich schon immer sehr für Mathematik und Physik interessiert und sich zunächst für ein Physikstudium entschieden.

Später hat die Mathematik sich als attraktiver erwiesen, aber die physikalische Anwendungen liegen ihr weiterhin am Herzen. Nun benutzt sie mathematische Methoden der geometrischen Analysis und Differentialgeometrie gemeinsamen mit ihren grundlegenden Vorstellungen von Physik für ihre Forschung.

Im Zentrum des Vortrages stand, welche Schritte es möglich gemacht haben, das klassische Konzept Schwerpunkt auf die Situation zu übertragen, dass sich Objekte so wie Sterne oder Galaxien so schwer sind bzw. sich so schnell bewegen, dass sie den Gesetzmäßigkeiten der Relativitätstheorie unterliegen. Der Schwerpunkt eines physikalischen Systems ist eines der ältesten und grundlegendsten Konzepte der mathematischen Physik und Geometrie. Das Verstehen der Position und Bewegung des Massenschwerpunktes eines Systems ist oft der erste Schritt zum Verständnis der Gesamtdynamik des Systems. Geht man jedoch über die klassische Mechanik hinaus, wird der Begriff immer komplizierter und muss neu definiert werden. Beispielsweise hängt der Schwerpunkt einer Massenverteilung in besonderer Weise vom gewählten Beobachter ab und er muss sich für Objekte wie schwarzes Löcher eignen. Hier kann er nicht als "Ereignis" (Punkt) in der Raumzeit beschrieben werden. Jede Vorstellung vom Massenschwerpunkt muss also notwendigerweise abstrakter sein.

In ihrer Doktorarbeit untersuchte Carla sogenannte geometrostatische Systeme, d.h. asymptotisch flache statische Lösungen der Einstein-Gleichungen im Vakuum. Anders ausgedrückt sind das statisch isolierte relativistische Systeme, deren Materie kompakten Träger hat. Ihr Ziel war es, ein tieferes Verständnis ihrer Asymptotik zu erlangen und mehr Einblick in ihre physikalische Interpretation (z.B. Masse und Schwerpunkt) zu gewinnen. Des weiteren war es spannend, inwieweit klassische und solche relativistischen Begriffe ineinander übergehen im Grenzwert kleiner Geschwindigkeiten.

Der Vortrag zeigte, worin die Herausforderungen bestehen und zeigte welche Techniken von ihr erfolgreich angewendet worden waren. Als erstes grundlegendes Problem für nicht statische Systeme erweist sich, dass die Beschreibung vom Beobachter abhängen muss. Eine grundlegende Idee ist es, die Lage des Schwerpunktes als Zentrum einer unendlichen Schar von ineinander liegenden Sphären zu beschreiben. Je größer diese Kugeloberflächen werden, desto weniger sind sie gekrümmt. Wenn man die Krümmung in der Geometrie des zu beschreibenden Raumes beherrscht, kann man als den Grenzwert dieser ineinander geschachtelten Sphären den Schwerpunkt fassen.

Zur Beschreibungen von Krümmungen braucht man die zweiten Ableitungen auf den eingebetteten Oberflächen in alle Richtungen, weshalb dies auf eine partielle Differentialgleichung zweiter Ordnung führt.

Carla ist Juniorprofessorin am Fachbereich Mathematik der Universität Tübingen und Kollegiatin der Heidelberger Akademie der Wissenschaften. Sie hat schon sehr früh ihre Forschung allgemeinverständlich dargestellt, z.B. 2009 mit der interaktiven Ausstellung Von Newton zu Einstein: Eine Reise durch Raum und Zeit. Sie macht das sehr erfolgreich und brennt für das Thema

Literatur und weiterführende Informationen C. Cederbaum, A geometric boundary value problem related to the static equations in General Relativity Oberwolfach report, 2017. C. Cederbaum, J. Cortier, A. Sakovich, On the center of mass of asymptotically hyperbolic initial data sets (preprint, accepted in Ann. Henri Poincaré), 2015. MSRI Emissary General Relativity, 2013. Carla Cederbaum,The Geometry of Static Spacetimes: Geometrostatics, Oberwolfach report, 2012. Carla Cederbaum, The Newtonian Limit of Geometrostatics, PhD thesis, 2011.

Algebraic Geometry

Jun 29, 2018 51:28

Description:

Gudrun spent an afternoon at the Max Planck Institute for Mathematics in the Sciences (MPI MSI) in Leipzig. There she met the Colombian mathematician Eliana Maria Duarte Gelvez. Eliana is a PostDoc at the MPI MSI in the Research group in Nonlinear Algebra. Its head is Bernd Sturmfels.

They started the conversation with the question: What is algebraic geometry? It is a generalisation of what one learns in linear algebra insofar as it studies properties of polynomials such as its roots. But it considers systems of polynomial equations in several variables so-called multivariate polynomials. There are diverse applications in engineering, biology, statistics and topological data analysis. Among them Eliana is mostly interested in questions from computer graphics and statistics.

In any animated movie or computer game all objects have to be represented by the computer. Often the surface of the geometric objects is parametrized by polynomials. The image of the parametrization can as well be defined by an equation. For calculating interactions it can be necessary to know what is the corresponding equation in the three usual space variables. One example, which comes up in school and in the introductory courses at university is the circle. Its representation in different coordinate systems or as a parametrized curve lends itself to interesting problems to solve for the students.

Even more interesting and often difficult to answer is the simple question after the curve of the intersection of surfaces in the computer representation if these are parametrized objects. Moreover real time graphics for computer games need fast and reliable algorithms for that question. Specialists in computer graphics experience that not all curves and surfaces can be parametrized. It was a puzzling question until they talked to people working in algebraic geometry. They knew that the genus of the curve tells you about the possible vs. impossible parametrization.

For the practical work symbolic algebra packages help. They are based on the concept of the Gröbner basis. Gröbner basis help to translate between representations of surfaces and curves as parametrized objects and graphs of functions. Nevertheless, often very long polynomials with many terms (like 500) are the result and not so straightforward to analyse.

A second research topic of Eliana is algebraic statistics. It is a very recent field and evolved only in the last 20-30 years. In the typical problems one studies discrete or polynomial equations using symbolic computations with combinatorics on top. Often numerical algebraic tools are necessary. It is algebraic in the sense that many popular statistical models are parametrized by polynomials. The points in the image of the parameterization are the probability distributions in the statistical model. The interest of the research is to study properties of statistical models using algebraic geometry, for instance describe the implicit equations of the model.

Eliana already liked mathematics at school but was not always very good in it. When she decided to take a Bachelor course in mathematics she liked the very friendly environment at her faculty in the Universidad de los Andes, Bogotá. She was introduced to her research field through a course in Combinatorial commutative algebra there. She was encouraged to apply for a Master's program in the US and to work on elliptic curves at Binghamton University (State University of New York) After her Master in 2011 she stayed in the US to better understand syzygies within her work on a PhD at the University of Illinois at Urbana-Champaign. Since 2018 she has been a postdoc at the MPI MSI in Leipzig and likes the very applied focus especially on algebraic statistics.

In her experience Mathematics is a good topic to work on in different places and it is important to have role models in your field.


References E. Duarte, Ch. Görgen: Equations defining probability tree models E. Duarte: Implicitization of tensor product surface in the presence of a generic set of basepoints. 2016. Journal of Algebra and Applications(to appear). Rigidity of Quasicrystal Frameworks - webpage E. M. Duarte, G. K. Francis: Stability of Quasicrystal Frameworks in 2D and 3D Proceedings of the First Conference Transformables 2013.In the Honor of Emilio Perez Piñero 18th-20th September 2013, Seville, Spain Portraits of people working in Nonlinear Algebra
Podcasts P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

InfSup-Bedingung

Jun 22, 2018 20:05

Description:

Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung.

Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck.

Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung.

Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist.

Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig.


Literatur und weiterführende Informationen D. Gallistl. Rayleigh-Ritz approximation of the inf-sup constant for the divergence. Math. Comp. (2018) Published online, https://doi.org/10.1090/mcom/3327 Ch. Bernardi, M. Costabel, M. Dauge, and V. Girault, Continuity properties of the inf-sup constant for the divergence, SIAM J. Math. Anal. 48 (2016), no. 2, 1250–1271. https://doi.org/10.1137/15M1044989 M. Costabel and M. Dauge, On the inequalities of Babuška-Aziz, Friedrichs and Horgan-Payne, Arch. Ration. Mech. Anal. 217 (2015), no. 3, 873–898. https://doi.org/10.1007/s00205-015-0845-2 D. Boffi, F. Brezzi, and M. Fortin, Mixed finite element methods and applications, Springer Series in Computational Mathematics, vol. 44, Springer, Heidelberg, 2013.
Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016

Maschinenbau HM

Jun 14, 2018 32:59

Description:

Gudrun sprach mit Gabriel Thäter. Er ist der langjährigen Hörerschaft schon bekannt, denn er hat im Februar 2015 als Schüler über sein BOGY-Praktikum am Institut für angewandte und numerische Mathematik berichtet. Heute ist er Maschinenbau-Student am KIT und absolviert gerade sein viertes Semester. Damit hat Gabriel die drei Semester, in denen Mathematik zum Studienplan für Maschinenbauer gehört - die sogenannte Höhere Mathematik (HM) I-III - erfolgreich abgeschlossen. Außerdem arbeitet er schon das zweite Semester als Tutor in der HM-Ausbildung für das Studienjahr, das nach ihm das Studium aufgenommen hat. Gudrun wollte im Gespräch aus erster Hand erfahren, wie die Mathe-Ausbildung bei ihm angekommen ist.

Der Ausgang war, mit welchen Wünschen und Erwartungen Gabriel sich für ein Studium im Maschinenbau entschieden hat. Tatsächlich war Maschinenbau nicht sein erster Wunsch, sondern er hatte sich zunächst für ein Duales Studium in Luft- und Raumfahrttechnik beworben. Das Duale Studium vereinigt Praxisphasen in einem Unternehmen mit Studienphasen an einer Fachhochschule und führt zum Abschluss Bachelor. Während der Studienzeit zahlt das Unternehmen ein Gehalt. Diese Studiensituation ist ist so attraktiv, dass der Wettbewerb um die wenigen Studienplätze immer sehr stark ist - auch wenn es nicht die ideale Ausgangssituation für eine Forschungstätigkeit später ist, da die theoretische Ausbildung nicht so breit aufgestellt sein kann wie im Bachelor an einer Universität.

Ein Studium des Maschinenbaus kam Gabriels Wunschbild Raumfahrttechnik am nächsten, zumal mit einem Studium in Karlsruhe für ihn auch kein Wohnort-Wechsel nötig wurde. Inzwischen ist Gabriel mit der "zweiten Wahl" sehr zufrieden, denn sein Studium erweist sich für ihn sehr vielseitig und bereitet ihn auf unterschiedliche Spezialisierungsmöglichkeiten vor. Im Moment plant er, sich in der Richtung Thermische Strömungsmaschinen zu vertiefen.

Gabriel war darauf gefasst, dass Mathematik an der Uni etwas mehr Zeit und Mühe kosten wird als in der Schule. Es hat ihn aber doch etwas überrascht, wie sehr sich Stoffdichte und Unterrichtstempo von der Schule unterscheiden. Trotzdem hat er seinen Ehrgeiz darin gesetzt, die Übungsaufgaben möglichst richtig und vollständig zum gegegebnen Termin einzureichen.

Um für die schriftliche Prüfung am Ende des Semester zugelassen zu werden, muss man in der Summe der Übungsblätter 1-10 eine gewisse Mindestpunktzahl erreichen. Für Gabriel hat sich die Arbeit in einer Gruppe bewährt. Für die Prüfungsvorbereitung hat er auch alte Klausuren aus der Fachschaft herangezogen. Die Aufteilung des Lernens in der Vorlesung, der zentralen Übung und in den Tutorium hat ihm gut gefallen. Jede Veranstaltung hat ihren Platz und ihren eigenen Nutzen für ihn gezeigt.

Als Tutor sieht er nun die Lehre auch ein wenig von der anderen Seite. Er unterrichtet selbst pro Woche eine Stunde, in der die Studierenden Fragen zu den aktuellen Aufgaben stellen und in Gruppen Aufgaben lösen, die den Übungsaufgaben zuarbeiten. Außerdem korrigiert er die Hausaufgaben seiner Tutoriengruppe. Dabei fällt ihm negativ auf, wenn zur Lösung kein logischer Rahmen gegeben wird, sondern einfach "wild losgerechnet" wird. Dann fällt es oft schwer, zu verstehen, was die Studierenden eigentlich mit den Rechnungen finden möchten und ob das sinnvoll ist oder falsch. Gabriel sagt, dass er durch die Vorbereitung der Tutorien oft noch viel besser verstanden hat, was er eigentlich im ersten und zweiten Semester gelernt hat.


Podcasts und weiterführende Informationen G. Thäter: Wasserraketen, Gespräch mit G. Thäter im Modellansatz Podcast Folge 49, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/wasserraketen F. Hettlich: Höhere Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/hoehere-mathematik G. Thäter, J. Rollin: Advanced Mathematics, conversation in the Modellansatz Podcast, episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. http://modellansatz.de/advanced-mathematics Informationen zur Höheren Mathematik im Maschinenbau am KIT

Erdbebensicheres Bauen

Jun 7, 2018 1:24:27

Description:

Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen.

Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben).

Erdbebenzonen in Deutschland. CC-BY 2.0: Störfix
Erdbebenzonen in Deutschland. CC-BY 2.0 Störfix

In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala.

In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen.

Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse.

Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen.

Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger, und die unterschiedlichen Belastungen in der maximalen Auslenkung in maximale statische horizontale Ersatzkräfte umgerechnet und damit vergleichbar gemacht.

Ein wichtiger Startpunkt ist die Auswahl der Bemessungssituation und das Semiprobabilistische Teilsicherheitssystem, als Weiterentwicklung des Sicherheitsfaktors, bzw. der Aufteilung in verschiedene Eurocodes, die auch noch eine national unterschiedliche Behandlung ermöglichen. Bei der Lastbestimmung berücksichtigt man ständige Lasten, eine hauptsächliche nicht-ständige Last, die Haupteinwirkung, und weitere nicht-ständige Lasten, die aber durch einen probabilistischen Faktor abgemindert werden, da nicht alle nicht-ständige Lasten gleichzeitig auftreten. Aus der Festigkeit des Baumaterials wird nun die maximale Spannung berechnet, die es aufnehmen kann, und diese muss den Einwirkungen bestehen können.

Eigentlich ist die DIN4149 durch den deutlich umfangreicheren Eurocode 8 abgelöst, doch ist aktuell noch die DIN4149 anzuwenden, da der Eurocode 8 zum Zeitpunkt der Aufnahme noch nicht in die technischen Baubestimmungen aufgenommen wurden.

Eine Besonderheit der Bemessungssituation für erdbebensicheres Bauen ist, dass hier ein Katastrophenlastfall angenommen wird, und es daher keine allgemeinen Sicherheitsfaktoren mehr gibt. Es geht dabei nicht um den Erhalt des Gebäudes, sondern nur um die Möglichkeit Menschenleben schützen zu können. Ein Bedeutungsbeiwert beschreibt die Bedeutung des Gebäudes für Katastrophenfälle, beispielsweise haben hier landwirtschaftliche Gebäude einen Wert von 0,8 während Krankenhäuser den Wert 1,4 haben.

Weiterhin wird die Nutzung durch einen Nutzungsbeiwert beschrieben, die die Belastung des Gebäudes durch die Nutzung beschreiben- diese können ständig, wie im Fall von Bibliotheken sein, oder sich häufig ändernd, wie durch Menschen, die das Gebäude besuchen.

Aus dem anzusetzenden Gewicht und der Beschleunigung durch die Erdmase kann man mit dem Modell des Einmassenschwingers die modellierte Schwingung des Gebäudes simulieren. Aus dieser Simulation erhält man das Antwortspektrum des Gebäudes für unterschiedliche Erdbeben. Bildet man hier die einhüllende Kurve bzw. Hüllkurve, die in der Synthesizer-Musik auch über das ADSR-Modell beschrieben werden kann. Die Nachschwingzeiten von sehr hohen Gebäuden können so lange sein, dass es förmlich zu tanzenden Hochhäusern kommen kann.

Der wichtige Wert der Schwingzeit wird durch eine vereinfachte Gebäudegeometrie berechnet. Da das Gebäude aber mehrere Resonanzfrequenzen beziehungsweise Eigenwerte der Steifigkeitsmatrix besitzt, gibt es zu jedem Mode eine eigene Schwingzeit. Die verschiedenen Schwingungen in den Teilmodellen überlagern sich in der Multimoden-Modell dann im vollen Modell.

Diese vereinfachenden Verfahren ermöglichen meisst schon mit wenig Rechenaufwand sehr gute Ergebnisse, jedoch stößt das Vorgehen bei sehr verwinkelten und komplexen Baustrukturen an Grenzen- eine Verwendung des Ein- oder Mehrschwingermodells ist bei einem Gebäude wie dem Aachenmünchener Direktionsgebäude nicht denkbar.

Bei der weiteren Betrachtung hat die Baugrundklasse einen wichtigen Einfluss, da diese beispielsweise bei kiesigem Untergrund die Erdbeschleunigung erheblich abschwächen kann. Der Dämpfungsbeiwert beschreibt die durch Prozesse wie Reibung dissipierte Energie. Weiterhin beschreibt der Verhaltensbeiwert die Plastitzität von Werkstoffen in Gebäuden, durch die ebenso die Schwingungsenergie verbraucht wird. Speziell werden Gebäude dazu in Duktulitätsklassen eingeteilt.

Eine besondere Rolle spielen hier die Zustandsklassen, beispielsweise beim Beton und Stahlbeton: Man geht davon aus, dass der Beton im normalen Zustand von kleinen Rissen durchzogen ist, und damit in Zustandsklasse 2 liegt. In der Alterung, aber auch durch Einwirkung von äußeren Kräften wie Erdbeben, kommt es zu einem Risswachstum. Risse können mathematisch durch Bifurkationen beschrieben werden, und erzeugen sehr schnell äußerst komplexe Problemstellungen. Im Katastrophenfall erlauben wir für Stahlbeton die Zustandsklasse 3, wo der Beton gerissen sein kann und der Stahl beginnt sich zu verbiegen. Auch wenn das Gebäude danach dringenden Reparaturbedarf besitzt, so wird so viel von der Erdbebenenergie durch die Materialien verbraucht.

Ein großes Problem sind dabei aber die Verbindungen, da gehärtete Schrauben spröde reißen. Ebenso haben Schweißnähte immer kleine Nahtfehler, die versagen können. Ein Ausweg sind hier so groß ausgelegte Verbindungen, so dass diese im Extremfall die Rotationsfähigkeit erhaltende Fließgelenke ausbilden und somit ein Versagen möglichst nicht in der Verbindung auftritt.

An der Hochschule Karlsruhe besucht Arne eine Vorlesung von Prof. Dr. Jan Akkermann und hat sich im Zuge seines Master-Studiums mit dem Projekt beschäftigt, einem Gebäude der Hochschule ein neues Geschoss zu planen.



Literatur und weiterführende Informationen A. Ötes: Die neue Erdbebennorm DIN 4149, Universität Dortmund. A. Rick: The Basics of Audio compressors, Gulaschprogrammiernacht, 2018.

Seismische Sonifikationen Z. Peng: Earthquake Music J. N. Louie, The Sound of Seismic, 2015 D. V. Rogers: Sounds of Seismic - Earth System Soundscape, 2013.

Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 12, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/erdbeben S. Wollherr: Bruchzonen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bruchzonen A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke

Automatic Differentiation

May 25, 2018 34:57

Description:

Gudrun talks with Asher Zarth. He finished his Master thesis in the Lattice Boltzmann Research group at the Karlsruhe Institute for Technology (KIT) in April 2018.

Lattice Boltzmann methods (LBM) are an established method of computational fluid dynamics. Also, the solution of temperature-dependent problems - modeled by the Boussinesq approximation - with LBM has been done for some time. Moreover, LBM have been used to solve optimization problems, including parameter identification, shape optimization and topology optimization. Usual optimization approaches for partial differential equations are strongly based on using the corresponding adjoint problem. Especially since this method provides the sensitivities of quantities in the optimization process as well. This is very helpful. But it is also very hard to find the adjoint problem for each new problem. This needs a lot of experience and deep mathematical understanding.

For that, Asher uses automatic differentiation (AD) instead, which is very flexible and user friendly. His algorithm combines an extension of LBM to porous media models as part of the shape optimization framework. The main idea of that framework is to use the permeability as a geometric design parameter instead of a rigid object which changes its shape in the iterative process. The optimization itself is carried out with line search methods, whereby the sensitivities are calculated by AD instead of using the adjoint problem.

The method benefits from a straighforward and extensible implementation as the use of AD provides a way to obtain accurate derivatives with little knowledge of the mathematical formulation of the problem. Furthermore, the simplicity of the AD system allows optimization to be easily integrated into existing simulations - for example in the software package OpenLB which Asher used in his thesis.

One example to test the algorithm is the shape of an object under Stokes flow such that the drag becomes minimal. It is known that it looks like an american football ball. The new algorithm converges fast to that shape.

References F. Klemens e.a.: CFD- MRI: A Coupled Measurement and Simulation Approach for Accurate Fluid Flow Characterisation and Domain Identification. Computers & Fluids 166, 218-224, 2018. T. Dbouk: A review about the engineering design of optimal heat transfer systems using topology optimization. Applied Thermal Engineering 112, pp. 841-854, 2017. C. Geiger and C. Kanzow. Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Springer-Verlag, 2013. M. J. Krause and V. Heuveline: Parallel fluid flow control and optimisation with lattice Boltzmann methods and automatic differentiation. Computers & Fluids 80, pp. 28-36, 2013. A. Kamikawa and M. Kawahara: Optimal control of thermal fluid flow using automatic differentiation. Computational Mechanics 43.6, pp. 839-846, 2009. A. Griewank and A. Walther. Evaluating derivatives: principles and techniques of algorithmic differentiation. Vol. 105. SIAM, 2008.

Computergrafik

May 18, 2018 36:32

Description:

Das Treffens des German Chapters of European Women in Mathematics fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Am Rande der Konferenz der Mathematikerinnen sprach Gudrun mit Susanne Krömker. Sie leitet seit 2004 die Computergrafik-Gruppe des Interdisziplinären Zentrums für Wissenschaftliches Rechnen(IWR) an der Ruprecht-Karls-Universität Heidelberg.

In der Computergrafik geht es grob gesagt um Analyse und Bearbeitung von Daten und ihre Darstellung als visuelle Information, d.h. es kommen sehr viele unterschiedliche Anforderungen zusammen. Andererseits sind die Themen, die jeweils dahinter stecken auch ganz besonders vielgestaltig. Für Susanne begann 1989 die Faszination mit der Darstellung einer reaktiven Strömung, bei der explosionsartig Wärme freigesetzt wird. Im Experiment ist die Apparatur geborsten, die Simulation liefert die Erklärung durch eine von den Wänden reflektierte Druckwelle und die Visualisierung macht den zeitlich enorm kurzen Explosionsvorgang mit Temperatur- und Druckverteilung im reaktiven Gemisch anschaulich.

Simulation reaktiver Strömung

Anschließend hat sie sich in ihrer Promotion mit partiellen Differentialgleichungen zur Beschreibung katalytischer Prozesse an Oberflächen beschäftigt, sich aber nie ganz von dem Thema Computergrafik getrennt, das in den 1990er Jahren dann richtig Fahrt aufnahm. Heute ist die Computergrafik technisch gesehen eine typische Anwendung für Hochleistungsrechnen. Außerdem gibt es immer wieder interessante Entwicklungen, die die Möglichkeiten von Grafikkarten unkonventionell ausnutzen. Aber es geht auch darum, geeignete Methoden zu entwicklen und zu implementieren, mit denen die von 3D-Scannern erfassten Messdaten auf ihren Informationsgehalt reduziert werden können. Grundsätzlich müssen dabei immer dreidimensionale Vorgänge auf dem zweidimensionalen Bildschirm dargestellt werden. Dazu braucht man projektive Geometrie - ein Thema, das in der Vorlesung mitunter abstrakt und von der Realität weit entfernt scheint. In ihrer Geometrie-Vorlesung für Sudierende der Mathematik kann Susanne ihre Erfahrungen aus der Informatik sehr anschaulich einbringen wie hier im Video für die Fano Ebene: (YouTube)

Etwa seit dem Jahr 2000 gab es in der Arbeitsgruppe von Susanne viele besonders interessante und sehr unterschiedliche Projekte. Ein Forschungsschwerpunkt lag dabei in der Kombination von Computertomographie und Oberflächendaten, um aus beiden Bildgebungsverfahren im Resultat ein verbessertes Bild zu erhalten: ILATO-Projekt (Improving Limited Angle computed Tomography by Optical data integration).

Außerdem hat sich die enge Zusammenarbeit mit Archäologen, Historikern und Geologen als besonders fruchtbar erwiesen. Beispiele dafür sind der theoriebildende Diskurs zum digitalen Modell des Klosters Lorsch (seit 1991 Weltkulturerbe der UNESCO) oder die Rekonstruktion von Inschriften in Tafeln und auf Grabsteinen, z.B. auf dem jüdischen Friedhof in Worms. Diese Analyse basiert auf Multiskalen Integralinvarianten, einem Filterverfahren, das in dem Softwareframework GigaMesh (Autor: Hubert Mara, IWR, Universität Heidelberg) implementiert ist. Oder die Rekonstruktion der Karten von barocken Globen, u.a. des Gottorfer Globus, mit HiIfe von anisotrop diffusiver Filterung.

Die Arbeitsgruppe hat Ausgrabungen im Tempelgebiet von Angkor in Kambodscha, dem größten Tempelgebiet der Welt, wissenschaftlich begleitet. Es gelang eine virtuelle architektonische Rekonstruktion des größten Tempels Angkor Wat oder die Rekonstruktion einer sechs Meter hohen Schiva-Statue aus Koh Ker, von der einzelne Puzzle-Teile über mehrere Museen der Welt verstreut sind.

Susanne hatte sich 1983 zunächst für ein Studium der Mathematik und Betriebswirtschaft in Osnabrück entschieden, hat dann aber den Wechsel nach Heidelberg verbunden mit der Hinwendungen zu anderen Natur- und Geisteswissenschaften nie bereut.

Literatur und weiterführende Informationen Inschrift aus Gisela-Grab entziffert, Historisches Museum der Pfalz Speyer / Universität Heidelberg, 7. November 2016 © damals.de S. Krömker: Digitales Modell Kloster Lorsch - Ein Ladenburger Diskurs zum Thema virtueller Rekonstruktion in: Sonderheft Sehenswerte, Schlösser und Gärten Hessen, 1/2015. A. Beyer, H. Mara and S. Krömker: ILATO Project: Fusion of Optical Surface Models and Volumetric CT Data in: arXiv:1404.6583, 2014. S. Krömker: Neue Methoden zur besseren Lesbarkeit mittelalterlicher Grabsteine am Beispiel des Heiligen Sands in Worms, in: Die SchUM-Gemeinden Speyer - Worms - Mainz. Auf dem Weg zum Welterbe. Schnell & Steiner, pp. 167 - 188, 2013. H. G. Bock, W. Jäger, M. J. Winckler (eds.), Scientific Computing and Cultural Heritage, Contributions in Mathematical and Computational Sciences, Volume 3, Springer, 2013. A. Hoffmann, F. Zimmermann, H. Scharr, S. Krömker, C. Schulz: Instantaneous three-dimensional visualization of concentration distributions in turbulent flows with crossed-plane laser-induced fluorescence imaging, Applied Physics B: Lasers and Optics, 2004. Fosdick, L.D., E.R. Jessup, C.J.C. Schauble, and G. Domik, An Introduction to High-Performance Scientific Computing, MIT Press, 0-262-06181-3, 750 pp, 1995.

CAMMP

Apr 27, 2018 35:33

Description:

Gudrun hat sich mit Kirsten Wohak unterhalten. Sie ist seit Januar 2018 in der Arbeitsgruppe Computational Science and Mathematical Methods von Prof. Frank tätig. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik.

Thema des Gespräches war jedoch ein ganz besonderes Angebot für Schülerinnen und Schüler: Das Computational and Mathematical Modeling Program (CAMMP) . Zusammen mit Maren Hattebuhr kümmert sie sich um das schon an der RWTH Aachen erprobte Konzept nun auch in Karlsruhe.

Beantwortet wird die Frage: Wie funktionieren eigentlich...

Animationsfilme Fitnesstracker Google GPS mp3 Shazam Solarkraftwerke Sicherung der Privatsphäre in Sozialen Netzwerken...

... und was hat das mit Mathe zu tun?

Anhand solchen praxisorientierter Fragestellungen aus dem eigenen Alltag werden Schüler und Schülerinnen in die Grundlagen der mathematischen Modellierung eingeführt. Dabei finden mathematische Inhalte, wie beispielsweise Winkelsätze oder Matrizenrechnung Anwendung, die bereits aus dem Unterricht bekannt sind. Neben inhaltlicher Arbeit werden in den Workshops vor allem prozessbezogene Kompetenzen gefördert.

Das typische Format ist ein sogenannter CAMMP-day. Er findet jeweils am Schülerlabor Mathematik im Mathebau statt und wird auf Anfrage je nach Themenwahl mit Oberstufen- bzw. Mittelstufenkursen von ein bis zwei wissenschaftlichen Mitarbeitern/-innen durchgeführt.
Die Schüler/innen erhalten morgens zunächst eine Einführung, die die Bedeutung von mathematischer Modellierung und Simulation für Wissenschaft und Industrie anhand verschiedener Beispiele veranschaulicht. Anschließend finden die Workshops statt. Nachmittags werden die Ergebnisse von Schülerinnen und Schülern vorgestellt und im Bezug auf die Anfangssituation diskutiert.

Seit dem 23. April 2018 läuft für sechs Montage der Schnupperkurs Mathematik zum Thema GPS und Navigation und am heutigen Girls' day findet der Shazam-Kurs statt.

Podcasts B. Böttcher: Meisterklasse, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Zweiphasenströmungen

Apr 20, 2018 45:47

Description:

Gudrun hatte zwei Podcast-Gespräche beim FEniCS18 Workshop in Oxford (21.-23. März 2018). FEniCS ist eine Open-Source-Plattform zur Lösung partieller Differentialgleichungen mit Finite-Elemente-Methoden.

Dies ist die zweite der beiden 2018er Folgen aus Oxford.

Susanne Claus ist zur Zeit NRN Early Career Personal Research Fellow an der Cardiff University in Wales. Sie hat sich schon immer für Mathematik, Physik, Informatik und Ingenieursthemen interesseirt und diese Interessen in einem Studium der Technomathematik in Kaiserlautern verbunden. Mit dem Vordiplom in der Tasche entschied sie sich für einen einjährigen Aufenthalt an der Universität Kyoto. Sie war dort ein Research exchange student und hat neben der Teilnahme an Vorlesungen vor allem eine Forschungsarbeit zu Verdunstungsprozessen geschrieben. Damit waren die Weichen in Richtung Strömungsrechnung gestellt. Dieses Interesse vertiefte sie im Hauptstudium (bis zum Diplom) an der Uni in Bonn, wo sie auch als studentische Hilfskraft in der Numerik mitarbeitete. Die dabei erwachte Begeisterung für nicht-Newtonsche Fluid-Modelle führte sie schließlich für die Promotion nach Cardiff. Dort werden schon in langer Tradition sogenannte viskoelastische Stoffe untersucht - das ist eine spezielle Klasse von nicht-Newtonschem Fluiden. Nach der Promotion arbeitet sie einige Zeit als Postdoc in London am University College London (kurz: UCL) zu Fehleranalyse für Finite Elemente Verfahren (*). Bis sie mit einer selbst eingeworbenen Fellowship in der Tasche wieder nach Cardiff zurückkehren konnte.

Im Moment beschäftigt sich Susanne vor allem mit Zweiphasenströmungen. In realen Strömungsprozessen liegen eigentlich immer mindestens zwei Phasen vor: z.B. Luft und Wasser. Das ist der Fall wenn wir den Wasserhahn aufdrehen oder die Strömung eines Flusses beobachten. Sehr häufig werden solche Prozesse vereinfacht modelliert, indem man sich nur eine Phase, nämlich die des Wassers genau ansieht und die andere als nicht so wichtig weglässt.

In der Modellbildung für Probleme, in denen beide Phasen betrachtet werden sollen, ist das erste Problem, dass das physikalische Verhalten der beiden Phasen sehr unterschiedlich ist, d.h. man braucht in der Regel zwei sehr unterschiedliche Modelle. Hinzu treten dann noch komplexe Vorgänge auf der Grenzflächen auf z.B. in der Wechselwirkung der Phasen. Wo die Grenzfläche zu jedem Zeitpunkt verläuft, ist selbst Teil der Lösung des Problems.

Noch interessanter aber auch besonders schwierig wird es, wenn auf der Grenzfläche Tenside wirken (engl. surfactant) - das sind Chemikalien die auch die Geometrie der Grenzfläche verändern, weil sie Einfluß auf die Oberflächenspannung nehmen. Ein Zwischenschritt ist es, wenn man nur eine Phase betrachtet, aber im Fließprozess eine freie Oberfläche erlaubt. Die Entwicklung dieser Oberfläche über die Zeit wird oft über die Minimierung von Oberflächenspannung modelliert und hängt deshalb u.a. mit der Krümmung der Fläche zusammen. D.h. man braucht im Modell lokale Informationen über zweite Ableitungen.

In der numerischen Bearbeitung des Prozesses benutzt Susanne das FEniCS Framework. Das hat sie auch konkret dieses Jahr nach Oxford zum Workshop geführt. Ihr Ansatz ist es, das Rechengitter um genug Knoten anzureichern, so dass Sprünge dargestellt werden können ohne eine zu hohe Auflösung insgesamt zu verursachen.

(*) an der UCL arbeitet auch Helen Wilson zu viscoelastischen Strömungen, mit der Gudrun 2016 in Oxford gesprochen hat.



Literatur und weiterführende Informationen S. Claus & P. Kerfriden: A stable and optimally convergent LaTIn-Cut Finite Element Method for multiple unilateral contact problems, CoRR, 2017. H. Oertel jr.(Ed.): Prandtl’s Essentials of Fluid Mechanics, Springer-Verlag, ISBN 978-0-387-21803-8, 2004. S. Gross, A. Reusken: Numerical Methods for Two-phase Incompressible Flows, Springer-Verlag, eBook: ISBN 978-3-642-19686-7, DOI 10.1007/978-3-642-19686-7, 2011. E. Burman, S. Claus & A. Massing: A stabilized cut finite element method for the three field Stokes problem. SIAM Journal on Scientific Computing 37.4: A1705-A1726, 2015.

Podcasts G. Thäter, R. Hill: Singular Pertubation, Gespräch im Modellansatz Podcast, Folge 162, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Wasserstofftankstellen

Apr 12, 2018 46:56

Description:

Gudrun unterhielt sich mit Meike Juliane Amtenbrink. Frau Amtenbrink hat von September 2017 bis Februar 2018 am Fraunhofer Institut für Solare Energiesysteme (ISE) in Freiburg Wasserstofftankstellen modelliert. Die Niederschrift der Ergebnisse bilden ihre Masterarbeit im Studiengang Energietechnik am KIT . Gudrun hat die Arbeit von Seiten des KIT als Erstgutachterin betreut.

Als kohlenstofffreier Energieträger ist Wasserstoff im weltweiten Fokus der Forschung. Tanken mit Wasserstoff verspricht, den CO2-Ausstoß des Verkehrssektors zu reduzieren, zusätzlich ermöglicht die Umwandlung überschüssiger Strommengen in Wasserstoff mittels Elektrolyse dringend benötigte Flexibilität für die zukünftige Energieversorgung. Dafür müssen Tankstellen zur Verfügung stehen. Auf dem noch jungen Markt hat sich auf der Kundenseite bereits ein Standard etabliert, sodass alle Besitzerinnen eines Brennstoffzellenfahrzeugs an jeder Wasserstofftankstelle nachtanken können. Der technische Aufbau der Tankstellentechnologie ist dabei, je nach Anwendung, unterschiedlich. Teil der Arbeit war es einzuschätzen, welche Konzepte für den zukünftigen Markt eine Rolle spielen. Aufgrund der Vergleichbarkeit zwischen den relevanten Konzepten und dem in der ISE-eigenen Tankstelle umgesetzten Aufbau, wurde die institutseigene Tankstelle modelliert und die vorhandenen Messdaten genutzt, um die Plausibilität der Ergebnisse zu überprüfen.

Im Rahmen vorangegangener Abschlussarbeiten wurde am Fraunhofer ISE ein Simulationsmodell eines Power-to-Gas-Systems auf Basis der PEM-Elektrolyse erstellt. Dieses Modell hatte zum Ziel, das dynamische Systemverhalten nachzubilden, Aussagen/Vorhersagen zum realen Wirkungsgrad der Anlage zu geben und die tatsächliche jährliche Wasserstofferzeugung zu prognostizieren. Darauf konnte Frau Amtenbrink aufbauen.

In ihrer Arbeit wurde ein nulldimensionales, thermodynamisches Realgasmodell einer Wasserstofftankstelle in MATLAB/Simulink erstellt. Dafür wurden für die Einzelkomponenten einer Wasserstofftankstelle die Enthalpie- und Stoffbilanzen aufgestellt, in Simulink implementiert und über eine Steuerungslogik zu einem Gesamtsystem verbunden. Mit dem Tankstellenmodell können das Stand-by-Verhalten der Tankstelle und der Betankungsvorgang sekundengenau simuliert werden. Ergebnis sind die Drücke, Temperaturen und Stoffströme des Wasserstoffs an den relevanten Stellen im Gesamtsystem und der Energieverbrauch der Tankstelle, aufgeschlüsselt nach den wichtigsten Einzelkomponenten.

Das Speichermodell kann auf Grundlage der Erhaltungsgleichungen über die zu- und abfließenden Stoffströme den sich ergebenden Druck und die Temperatur des Wasserstoffs im Speicher nachbilden, wobei die Realgasgleichung nach Redlich und Kwong benutzt wurde. Der Wärmeaustausch mit der Umgebung durch Konvektion und Wärmeleitung ist berücksichtigt. Das Modell ist auf verschiedene Speicher parametrisierbar und kann über die Anpassung der Geometrie- und Materialwerte sowohl für die Druckbänke an der Tankstelle, als auch für den Fahrzeugtank genutzt werden.

Die Speichermodelle zeigen eine sehr gute Übereinstimmung mit der Realität. Die Drücke in Abhängigkeit der Umgebungstemperatur und die Temperaturerhöhung, die sich als Resultat einer Speicherbefüllung ergibt, können nachgebildet werden, ebenso der nach einer Befüllung erfolgende Temperaturausgleich mit Druckreduzierung. Durch das Modell für die Rohrleitungen können die Druckverluste innerhalb der Tankstelle abgebildet werden. Das Modell ist durch die Wahl der Geometrieparameter auf unterschiedliche Tankstellenkonfigurationen anwendbar.

Der Kompressor wurde isentrop modelliert und die Verdichtungsarbeit mit einem isentropen Wirkungsgrad korrigiert. Der Druckanstieg, der sich durch den Kompressor beim Wiederbefüllen der Druckbank ergibt, ist durch die Simulation genau wiedergegeben. Dadurch ergibt sich, dass die Dauer der Speicherbefüllung zwischen Simulation und Messung übereinstimmt.

Zur Modellierung der Kältemaschine wurde der Kältemittelkreislauf stark vereinfacht und durch eine Kälteleistung ersetzt, die von der Umgebungstemperatur abhängt.

Für die wichtigsten Energieverbraucher an der Tankstelle, Kompressor und Kältemaschine, wurden Modelle erstellt, durch die der Energieverbrauch in Abhängigkeit der Betriebsführung berechnet werden kann. Nach der anschließenden Validierung kann das Modell dazu dienen, die Hauptenergieverbräuche an der Tankstelle zu quantifizieren und die Größe der einzelnen Komponeten optimal aufeinander auszulegen. Damit kann in Zukunft entschieden werden, ob zum Beispiel die Betriebsführung der Kältemaschine zur Optimierung des Gesamtwirkungsgrades verändert werden sollte.



Literatur und weiterführende Informationen Pressemitteilung des H2-Tankstellen-Konsortiums App zum Auffinden von Wasserstofftankstellen sowie Karte mit Wasserstofftankstellen in Deutschland Informationen zur ersten H2-Tankstelle in Karlsruhe https://pem-electrolysis.de Homepage des Bereichs Wasserstofftechnologien am Fraunhofer ISE H.D. Baehr und S. Kabelac. Thermodynamik: Grundlagen und technische Anwendungen. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. 978-3-642- 24160-4. doi: 10.1007/978-3-642-24161-1, 2012. E. Rothuizen e.a: Optimization of hydrogen vehicle refueling via dynamic simulation. International Journal of Hydrogen Energy Vol. 38, No. 11, p. 4221-4231, 2013. A. Huss und M. Corneille. Wasserstoff-Tankstellen. Ein Leitfaden für Anwender und Entscheider. Wiesbaden: Hessisches Ministerium für Umwelt, Energie, Landwirtschaft und Verbraucherschutz, 2011.

Podcasts F. Schueth, T. Pritlove: Energieforschung, Episode 12 im Forschergeist Podcast, Stifterverband/Metaebene, 2015. M. Voelter, D. Schumann: Elektromobilität, Episode 163 im omega tau Podcast, 2015.

Singular Pertubation

Apr 6, 2018 21:57

Description:

Gudrun had two podcast conversations at the FEniCS18 workshop in Oxford (21.-23. March 2018). FEniCS is an open source computing platform for solving partial differential equations with Finite Element methods.

This is the first of the two episodes from Oxford in 2018.

Roisin Hill works at the National University of Ireland in Galway on the west coast of Ireland. The university has 19.000 students and 2.000 staff. Roisin is a PhD student in Numerical Analysis at the School of Mathematics, Statistics & Applied Mathematics. Gudrun met her at her poster about Balanced norms and mesh generation for singularly perturbed reaction-diffusion problems. This is a collaboration with Niall Madden who is her supervisor in Galway.

The name of the poster refers to three topics which are interlinked in their research. Firstly, water flow is modelled as a singularly perturbed equation in a one-dimensional channel. Due to the fact that at the fluid does not move at the boundary there has to be a boundary layer in which the flow properties change. This might occur very rapidly. So, the second topic is that depending on the boundary layer the problem is singularly perturbed and in the limit it is even ill-posed. When solving this equation numerically, it would be best, to have a fine mesh at places where the error is large. Roisin uses a posteriori information to see where the largest errors occur and changes the mesh accordingly. To choose the best norm for errors is the third topic in the mix and strongly depends on the type of singularity.

More precisely as their prototypical test case they look for u(x) as the numerical solution of the problem

$$\varepsilon^2u''(x) + b(x)u(x)\ =\ f(x)\quad \mathrm{on}\quad \Omega = (0, 1)$

$u(0)\ =\ u(1)\ =\ 0$

for given functions b(x) and f(x). It is singularly perturbed in the sense that the positive real parameter ε may be arbitrarily small. If we formally set ε = 0, then it is ill-posed. The numercial schemes of choice are finite element methods - implemented in FEniCS with linear and quadratic elements. The numerical solution and its generalisations to higher-dimensional problems, and to the closely related convection-diffusion problem, presents numerous mathematical and computational challenges, particularly as ε → 0. The development of algorithms for robust solution is the subject of intense mathematical investigation. Here “robust” means two things:

The algorithm should yield a “reasonable” solution for all ranges of ε, including resolving any layers present; The mathematical analysis of the method should be valid for all ranges of ε.

In order to measure the error, the energy norm sounds like a good basis - but as ε^2 → 0 the norm → 0 with order ε . They were looking for an alternative which they found in the literature as the so-called balanced norm. That remains O(1) as ε → 0. Therefore, it turns out that the balanced norm is indeed a better basis for error measurement.


After she finished school Roisin became an accountant. She believed what she was told: if you are good at mathematics, accountancy is the right career. Later her daughter became ill and had to be partially schooled at home. This was the moment when Roisin first encountered applied mathematics and fell in love with the topic. Inspired by her daughter - who did a degree in general science specialising in applied mathematics - Roisin studied mathematics and is a PhD student now (since Sept. 2017). Her enthusiasm has created impressive results: She won a prestigious Postgraduate Scholarship from the Irish Research Council for her four year PhD program.

References R. Lin, M. Stynes: A balanced finite element method for singularly perturbed reaction diffusion problems. SIAM J. Numer. Anal., 50(5):2729–2743, 2012. T. Linß: Layer-adapted meshes for reaction-convection-diffusion problems, volume 1985 of Lecture Notes in Mathematics. Springer-Verlag, Berlin, 2010. H.-G. Roos, M. Stynes, L. Tobiska: Robust Numerical Methods for Singularly Perturbed Differential Equations, volume 24 of Springer Series in Computational Mathematics. Springer-Verlag, Berlin, 2nd edition, 2008. Podcasts M. E. Rognes: Cerebral Fluid Flow, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Embryonic Patterns

Mar 30, 2018 51:30

Description:

In March 2018 Gudrun visited University College London and recorded three conversations with mathematicians working there.

Her first partner was Karen Page. She works in Mathematical Biology and is interested in mathematical models for pattern formation. An example would be the question why (and how) a human embryo develops five fingers on each hand. The basic information for that is coded into the DNA but how the pattern develops over time is a very complicated process which we understand only partly. Another example is the patterning of neurons within the vertebrate nervous system. The neurons are specified by levels of proteins. Binding of other proteins at the enhancer region of DNA decides whether a gene produces protein or not. This type of work needs a strong collaboration with biologists who observe certain behaviours and do experiments. Ideally they are interested in the mathematical tools as well.

One focus of Karen's work is the development of the nervous system in its embryonic form as the neural tube. She models it with the help of dynamical systems. At the moment they contain three ordinary differential equations for the temporal changes in levels of three proteins. Since they influence each other the system is coupled. Moreover a fourth protein enters the system as an external parameter. It is called sonic hedgehog (Shh). It plays a key role in regulating the growth of digits on limbs and organization of the brain. It has different effects on the cells of the developing embryo depending on its concentration.

Concerning the mathematical theory the Poincaré Bendixson theorem completely characterizes the long-time behaviour of two-dimensional dynamical systems. Working with three equations there is room for more interesting long-term scenarios. For example it is possible to observe chaotic behaviour.

Karen was introduced to questions of Mathematical Biology when starting to work on her DPhil. Her topic was Turing patterns. These are possible solutions to systems of Partial differential equations that are thermodynamically non-equilibrium. They develop from random perturbations about a homogeneous state, with the help of an input of energy.

Prof. Page studied mathematics and physics in Cambridge and did her DPhil in Oxford in 1999. After that she spent two years at the Institute for Advanced Study in Princeton and has been working at UCL since 2001.


References A. Turing: The Chemical Basis of Morphogenesis Philosophical Transactions of the Royal Society of London B. 237 (641): 37–72.1952 J.D. Murray: Mathematical Biology. Springer Science & Business Media, 2013. ISBN 978-3-662-08539-4 M. Cohen, K.M. Page e.a: A theoretical framework for the regulation of Shh morphogen-controlled gene expression. Development, 141(20), 3868-3878, 2014. N. Balaskas e.a.: Gene regulatory logic for reading the Sonic Hedgehog signaling gradient in the vertebrate neural tube. Cell. 148, 273-284, 2012. J. Panovska-Griffiths e.a.: A gene regulatory motif that generates oscillatory or multiway switch outputs. J. Roy. Soc. Interface. 10.79, 2013.
Podcasts L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Omega Tau-Podcast 069: Grundlagen der Zellbiologie Omega Tau-Podcast 072: Forschung in der Zellbiologie Konscience-Podcast 024, Kapitel 5: Das Hochlandgen aus "Wie kam das bloß durch die Ethikkommission?"

Optimale Akkuladung

Mar 23, 2018 30:43

Description:

Gudrun sprach mit Veronika Auinger, die in ihrer Masterarbeit Ladevorgänge für Akkumulatoren (Akkus) optimal regelt. Die Arbeit entstand in enger Zusammenarbeit mit Christian Fleck und Andrea Flexeder von der Firma BOSCH (Abt. Control Theory).

In einer Zeit, in der klar wird, das Erdöl als Energielieferant sehr bald ersetzt werden muss, ist die Suche nach alternativen Antriebsarten im Transport von hoher Priorität. Die populärste ist das Elektrofahrzeug, auch wenn es noch immer darum kämpft, sich in den Köpfen der Menschen zu etablieren. Ein wesentlicher Grund dafür ist die sehr begrenzte Speicherkapazität und die lange Ladezeit der in diesen Fahrzeugen eingebauten Akkumulatoren (*). Wir sind von Verbrennungsmotoren an eine große Reichweite und große Flexibilität gewöhnt. Wenn Elektroautos dieselben Anforderungen erfüllen sollen wie Benzinautos, spielen die Akkus und deren Laderegime(s) eine zentrale Rolle. Automobilzulieferer wie BOSCH oder MAHLE entwickeln schon jetzt einen beträchtlichen Teil der Technologie und Software, die in modernen Fahrzeugen steckt. Nun kommt die Entwicklung von zukunftsträchtigen Akkus als neues Thema und Produkt hinzu.

Das Ziel der Masterarbeit von Frau Auinger war es, eine intelligente Ladestrategie zu finden, die zwei Aspekte des Batteriesystems minimiert: die Zeit, die benötigt wird, um die Batterie vollständig aufzuladen, und den Kapazitätsverlust des Akkus, der durch die Ladung verursacht wird. Eine gleichzeitige Minimierung ist jedoch problematisch, da beide Ziele im Allgemeinen nicht gemeinsam erreicht werden können: Eine minimale Ladezeit führt in der Regel zu einem hohen Kapazitätsverlust und umgekehrt.

Der Grund hierfür ist, dass zur Verkürzung der Ladezeit mit höheren Strömen aufgeladen werden muss, was wiederum zu einer kürzeren Lebensdauer der Akkus führt. So gewinnen intelligente Ladestrategien an Bedeutung, bei denen der Ladestrom einem vorgegebenen Profil folgt, der den Verlust der Lebensdauer minimiert und die Ladezeit akzeptabel kurz hält. Diese Protokolle lassen sich als Lösungen für optimale Steuerungsprobleme bestimmen. In der Praxis erfordert dies Algorithmen, die Lösungen in Echtzeit liefern, was das Ziel dieser Masterarbeit war.

Zu Beginn dieses Projektes lag eine Formulierung des Steuerungsproblem von Carolin Eckhard vor, das von ihr durch eine einfache Implementierung in Matlab gelöst worden war. Das Modell der Lithium-Ionen-Batterie besteht darin aus drei Teilen: Ein Zellspannungsmodell, ein Zelltemperaturmodell und ein Alterungsmodell, das den Kapazitätsverlust in der Zelle beschreibt. Da der Code nicht für Echtzeitzwecke taugte, wurde er von Adrian Tardieu beschleunigt, indem er Gradientenprojektionsmethoden einsetzte. In der Arbeit von Frau Auinger wurde ein vereinfachtes optimales Ladeproblem hergeleitet für das eine analytische Lösung mit Hilfe von Pontrjagin's Satz berechnet werden kann. Diese dient als erste Trajektorie im iterativen Algorithmus, was das Verfahren in der Regel beschleunigt.

Die analytisch abgeleiteten Trajektorien haben sich als sehr nahe an den numerisch berechneten Lösungen des ursprünglichen Problems erwiesen und wurden daher als Ausgangsbasis für den existierenden Algorithmus verwendet.

(*) Man spricht - eigentlich unzutreffend - auch gern von Batterien, weil es im englischen battery heißt.



Literatur und weiterführende Informationen L.S. Pontrjagin, W.Boltjanski, R.V. Gamkrelidze, E.F. Mishchenko: Mathematische Theorie optimaler Prozesse. Oldenbourg 1967. N. Tauchnitz. Das Pontrjaginsche Maximumprinzip für eine Klasse hybrider Steuerungsprobleme mit Zustandsbeschränkungen und seine Anwendung. Doktorarbeit, Brandenburgische Technische Universität Cottbus-Senftenberg, 2010. J. Yan e.a.: Model Predictive Control-Based Fast Charging for Vehicular Batteries. Energies 2011, 4, 1178-1196; doi:10.3390/en4081178. A. Barré, B. Deguilhem, S. Grolleau, M. Gérard, F. Suard, and D. Riu. A review on lithium-ion battery ageing mechanisms and estimations for automotive applications. Journal of Power Sources, 241:680 689, 2013. J. Sabatier, J. M. Francisco, F. Guillemard, L. Lavigne, M. Moze, and M. Merveillaut. Lithium-ion batteries modeling: A simple fractional differentiation based model and its associated parameters estimation method. Signal Processing, 107 290 301, 2015. C. Eckard. Model predictive control for intelligent charging strategies of high-voltage batteries. Master's thesis, Universität Stuttgart, May 2016.

Podcasts M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/akkumulatoren A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. D. Schumann: Elektromobilität, Gespräch mit Markus Voelter im Omega Tau Podcast, Folge 163, 2015. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. Cleanelectric - Der Podcast rund um das Thema Elektromobilität

Zuschnittsoptimierung

Mar 16, 2018 39:27

Description:

Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie.

Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt.

Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat.

Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar.

Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme.

Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich.

Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern.

Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist.

Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist.

Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutting and Packing Optimization - Problems, Modeling Approaches, Solution Methods Springer 2018. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/topologieoptimierung K. Berude: Sensoreinsatzplanung, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 154, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/sensoreinsatzplanung

Meisterklasse

Mar 9, 2018 38:08

Description:

Gudrun war im März 2018 an der TU Dresden zu Gast. Sie bot dort einen Workshop in der Meisterklasse Mathematik an. Außerdem nutzte sie den Aufenthalt in Dresden für ein Gespräch mit Björn Böttcher. Er ist Initiator dieser Veranstaltungsreihe und koordiniert die Schülerförderung an der Fakultät für Mathematik an der TU Dresden.

Die Meisterklasse Mathematik in Dresden ist ein Angebot für Schülerinnen und Schüler der siebten Klassen. Mathelehrerinnen und Lehrer aus Dresden und Umgebung dürfen ihre Mathematik-interessierten Schülerinnen und Schüler vorschlagen, und aus der Gruppe der nominierten werden von der Fakultät 60 Kinder ausgesucht. An drei Samstagen im März werden diese in den Willers-Bau eingeladen. Sie erleben dort Mathematik von einer neuen und überraschenden Seite und befassen sich am Vormittag und Nachmittag mit je einem Thema, das der Dozent oder die Dozentin für sie aufbereitet hat.

Wichtig dabei ist auch, dass sich in der Gruppenarbeit zwischen den Kindern ganz natürlich Kontakte ergeben und sie erleben, dass es viele Gleichgesinnte gibt die ihre Freude an Mathematik, dem Knobeln und dem forschenden Denken teilen.

Auf die Idee, eine Meisterklasse in Dresden zu etablieren kam Björn durch ein Buch über solche Masterclasses in Großbritannien (von Michael J. Sewell herausgegeben). Unkenrufen zum Trotz hat er es im Jahr 2014 zum ersten Mal probiert und hatte mit der Idee Erfolg. Es werden seitdem jedes Jahr mehr als genug Kinder nominiert und die Atmosphäre in den Workshops ist einzigartig. Alle sind mit Begeisterung dabei und selbst für eigentlich rethorisch gemeinte Fragen finden sich stets einige Wortmeldungen im Publikum.

Wer auch einmal einen Kurs anbieten möchte, sollte sich einfach bei ihm melden: bjoern.boettcher@tu-dresden.de

Neben den Meisterklassen gibt es auch andere Angebote für Mathe-Interessierte in Dresden. Besonders bekannt ist wahrscheinlich die Mathematische Schülergesellschaft für die Klassen 6-12.

Literatur und weiterführende Informationen Michael J. Sewell (ed): Mathematics Masterclasses: Stretching the Imagination, Oxford University Press, 1997. Aufgabensammlung für Schülerzirkel Mathematik Schülerförderung der Fakultät Mathematik TU Dresden Über die Lebensdauer von Seifenblasen - eine Exponentialverteilung im Experiment?. Erscheint im MNU-Journal Björn Böttcher und die Seifenblasen. Podcasts E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom

Mikroelektromechanische Systeme

Mar 2, 2018 34:57

Description:

Christina Lienstromberg von der Leibniz Universität in Hannover war im Februar 2018 zu Gast an unserer Fakultät. In einem Vortrag stellte sie mathematische Forschungsergebnisse zu Modellen für Mikrosysteme (auch mikroelektromechanische Systemen bzw. MEMS) vor. Christina hat in Hannover Mathematik studiert und auch promoviert und ist dort als Postdoc tätig.

MEMS ist eine Technologie mikroskopisch kleiner Apparate mit beweglichen Teilen. Die Geräte bestehen aus Bauteilen mit einer Größe zwischen 1 und 100 Mikrometern (d.h. 0,001 bis 0,1 mm), und MEMS-Bauteile haben in der Regel eine Größe von 20 Mikrometern bis zu einem Millimeter (d.h. 0,02 bis 1,0 mm). Sie bestehen in der Regel aus einer Zentraleinheit, die Daten verarbeitet - dem Mikroprozessor - und mehreren Komponenten, die mit der Umgebung interagieren, wie beispielsweise winzigen Sensoren. Aufgrund des großen Flächen-Volumen-Verhältnisses von MEMS sind die Kräfte, die durch den umgebenden Elektromagnetismus (z.B. elektrostatische Aufladungen und magnetische Momente) und die Fluiddynamik (z.B. Oberflächenspannung und Viskosität) hervorgerufen werden, wichtiger als bei größeren mechanischen Geräten.

MEMS befinden sich unter anderem in Airbags und Laptops und beobachten die Beschleunigung, um entsprechend reagieren zu können. So stellen sie fest, dass sich ein Computer im freien Fall befindet und setzen während des Sturzes den Lesekopf der Festplatte in Parkposition. Oder sie dienen der mechanische Bildstabilisierung in Fotoapparaten. Interessante Weiterentwicklungen werden unter dem Namen Mikrofluidik zusammengefaßt und sind schon jetzt im Einsatz in Tintenstrahl-Druckköpfen oder Lab-on-a-Chip-Systemen.

Die mathematischen Modelle, die Christina und ihre Kollegen betrachten, sind zweidimensionale Schnitte durch ein Gebiet, das eine feste Bodenplatte hat und eine bewegliche Membran darüber, die auf beiden Seiten fest eingespannt ist, aber auf ein elektrisches Potential durch Bewegung reagiert. Viel Information über das System wird in der Durchlässigkeit der Membran ausgedrückt, auch Permittivitätsprofil genannt. Unterschiedliche Systeme von Differentialgleichungen dienen als Modelle, je nach physikalischer Herleitung. In jedem Fall ist ein entweder semi- oder quasilineares hyperbolisches oder parabolisches Evolutionsproblem für die Auslenkung einer elastischen Membran mit einem elliptischen Problem gekoppelt, das das elektrostatische Potential im Bereich zwischen der elastischen Membran und der starren Grundplatte bestimmt.

Von besonderem Interesse bei allen Modellen ist der Einfluss verschiedener Klassen von Permittivitätsprofilen. Außerdem ist das mögliche Auftreten von Singularitäten nach endlicher Zeit spannend, wenn sich z.B. die Membran und die Bodenplatte treffen.

Es zeigt sich, dass das System für alle Werte der angelegten Spannung räumlich und zeitlich wohlgestellt ist. Darüber hinaus wird überprüft, dass die Lösung auch global in der Zeit existiert, vorausgesetzt, dass die angelegte Spannung einen bestimmten kritischen Wert nicht überschreitet.



Literatur und weiterführende Informationen J. Escher, P. Laurençot, C. Walker: A parabolic free boundary problem modeling electrostatic MEMS, Arch. Rational Mech. Anal., 211,389-417, 2014. C. Lienstromberg, J. Escher: A survey on second-order free boundary value problems modelling MEMS with general permittivity profile, Discrete Contin. Dyn. Syst. Ser. S 10, no. 4, 745–771, 2017. C. Lienstromberg, J. Escher: Finite-time singularities of solutions to microelectromechanical systems with general permittivity, Ann. Mat. Pura Appl. (4) 195 (2016), no. 6, 1961–1976. J.A. Pelesko, D.H. Bernstein: Modeling MEMS and NEMS, CRC Press Inc, ISBN 1584883065, 2002. X. Zhao: Modeling and Simulation of MEMS Devices, PhD-Dissertation submitted to the Faculty of the Virginia Polytechnic Institute and State University, 2004.

Poroelastische Medien

Feb 23, 2018 28:47

Description:

Jonathan Fröhlich hat im Juli 2017 seine Masterarbeit zum Thema "Heterogeneous Multiscale Methods for Poroelastic Media" eingereicht. Sie wurde von Professor Christian Wieners in unserem Institut betreut. Strömungs- und Transportphänomene in sogenannten porösen Medien spielen eine wichtige Rolle in einem breiten Spektrum von Bereichen und Anwendungen, wie zum Beispiel in der Landwirtschaft, der Biomedizin, der Baugeologie und der Erdöltechnik. Betrachtet man beispielsweise den Boden, so stellt man fest, dass der Sand, das Gestein oder der Kies keine homogene Masse ist mit homogenen Materialeigenschaften, sondern aus unzähligen unterschiedlich großen und in den physikalischen Eigenschaften variierenden Teilen bestehen. Die hohe Heterogenität solcher Medien führt auf eine große Komplexität, die im Modell des porösen Mediums stark vereinfacht betrachtet wird. Es liegt deshalb die Frage nahe: Wie verallgemeinert man herkömmliche Modelle für poröse Medien so, dass nicht gleich die komplette Zusammensetzung benötigt wird, aber mehr von der Struktur berücksichtigt wird?

Die vorliegende Arbeit und unser Gespräch konzentrieren sich auf einen Spezialfall, nämlich die einphasige Strömung durch poroelastische Medien. Sie sind gekennzeichnet durch die Wechselwirkung zwischen der Beanspruchung der intrinisischen Struktur und der Strömung der Flüssigkeit. Konkret erzwingt die Änderung des Flüssigkeitsdrucks eine Beanspruchung des Materials, wodurch es beschleunigt und bewegt wird. Ein Beispiel hierfür ist der Blutfluß durch Adern. Das Blut verändert im Fließen ständig die konkrete Geometrie der elastisch verformbaren Adern und gleichzeitig ändern die Adern die Fließrichtung und -geschwindigkeit des Blutes. Dieser Prozeß wird mit bestimmten partiellen Differentialgleichungen (PDEs) modelliert. Jonathan verwendete das von Biot (1941) eingeführte linearisierte Modell und erweitert es zu einem quasistatischen Konsolidationsmodell für die Bodenmechanik.

Solche Probleme sind charakterisiert durch die enorme Größe des betrachteten Gebietes, beispielsweise mehrere Kilometer an Flussbett. Dies steht im Kontrast zu den sehr kleineskaligen geometrischen Informationen, wie Sandkorngrößen und -formen, die einen Einfluss auf das System haben. Die standardmäßige Finite-Elemente-Methode zur numerischen Lösung dieses Systems von PDEs wird nur dann gute Ergebnisse liefern, wenn die Auflösung des Netzes wirklich extrem hoch ist. Dies würde zu nicht realisierbaren Rechenzeiten führen. Deshalb wird eine Idee von E und Engquist benutzt, die sogenannte Finite Element Heterogene Multiskalen Methode (FE-HMM) von 2003. Sie entkoppelt den heterogenen Teil und löst ihn durch ein mikroskopisch modelliertes Problem. Das makroskopische Problem braucht dann nur ein viel gröberes Netz und benutzt die Informationen aus dem mikroskopischen Teil als Daten.

Mathematisch gesehen verwendet die Theorie eine schwache Formulierung mit Hilfe von Bilinearformen und sucht nach Lösungen in Sobolev-Räumen. Die passende Numerik für das makroskopische Problem ist eine gemischte Finite-Elemente-Methode für ein gestörtes Sattelpunktproblem. Deshalb müssen für Existenz und Eindeutigkeit von schwachen Lösungen bestimmte Bedingungen erfüllt sein, die der klassischen LBB-Bedingung (auch inf-sup-Bedingung genannt) ähnlich sind. Das zu lösende mikroskopische Problem ist elliptisch und wird mithilfe klassischer Homogenisierungstheorie hergeleitet, wobei zusätzliche Bedingungen zur Sicherung der Zwei-Skalen Konvergenz erfüllt werden müssen.



Literatur und weiterführende Informationen Maurice A. Biot: General Theory of Three‐Dimensional Consolidation Journal of Applied Physics 12, 155, 1941. E. Weinan, Björn Engquist: The Heterogeneous Multiscale MethodsCommunications in Mathematical Sciences, Volume 1, Number 1, 87-132, 2003. M. Sahimi: Flow and Transport in Porous Media and Fractured Rock Wiley Weinheim, 2011. Assyr Abdulle e.a.: The heterogeneous multiscale method Acta Numerica Volume 21, pp. 1-87, 2012.

Podcasts J. Fröhlich: Getriebeauswahl, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 028, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Turbulence

Feb 2, 2018 30:11

Description:

Martina Hofmanová has been working as a professor at the University of Bielefeld since October 2017. Previously, she was a Junior Professor at TU Berlin from February 2016 onwards, and before that an Assistant Lecturer, there.

She studied at the Charles University in Prague, and got her PhD in 2013 at the École normale supérieure de Cachan in Rennes. Her time in Germany started in 2013 when she moved to the Max Planck Institute for Mathematics in the Sciences in Leipzig as a postdoc.

Gudrun and Martina talk about randomness in the modeling of fluid motion. This topic is connected to the study of turbulent flow. Of course, we observe turbulence all around us, i.e. chaotic behaviour of the pressure and the velocity field in fluid flow. One example is the smoke pattern of a freshly extinguished candle. Its first part is laminar, then we observe transitional turbulent flow and fully turbulent one the further away the smoke travels. A second example is Rayleigh Bénard convection. Under the influence of a temperature gradient and gravity, one observes convection rolls when the temperature difference between bottom and top becomes large enough. If we look more closely, one can prescribe the motion as a mean flow plus random fluctuations. These fluctuations are difficult to measure but their statistical properties are reproduced more easily.

A general procedure in physics and science is to replace expensive time averages by ensemble averages, which can be calculated together on a parallel computer. The concept why this often works is the so-called ergodic hypothesis. To justify this from the mathematical side, the main problem is to find the right measure in the ensemble average.

In the model problem y'=b(y) one can see that the solution is continuously dependent on the initial condition and the solution operator has a semigroup property. For random initial conditions, one can construct the solution operator correspondingly.

Already with this toy problem one sees that the justification of using ensemble averages is connected to the well-posedness of the problem. In general, this is not apriori known. The focus of Martina's work is to find the existence of steady solutions for the compressible flow system, including stochastic forces with periodic boundary conditions (i.e. on the torus).

At the moment, we know that there are global weak solutions but only local (in time) strong solutions.

It turned out that the right setting to study the problem are so-called dissipative martingale solutions: Unfortunately, in this setting, the velocity is not smooth enough to be a stochastic process. But the energy inequality can be proved. The proof rests on introducing artificial dissipation in the mass conservation, and a small term with higher order regularity for the density. Then, the velocity is approximated through a Faedo-Galerkin approximation and a lot of independent limiting processes can be carried out successfully.

The project is a collaboration with Dominic Breit and Eduard Feireisl.



References M. Hofmanová: Stochastic partial differential equations, Lecture notes, Technical University of Berlin, 2016. D. Breit, E. Feireisl, M. Hofmanová, B. Maslowski: Stationary solutions to the compressible Navier-Stokes system driven by stochastic forces, preprint, 2016. D. Breit, E. Feireisl, M. Hofmanová: Local strong solutions to the stochastic compressible Navier-Stokes system, preprint, 2016. D. Breit, E. Feireisl, M. Hofmanová: Compressible fluids driven by stochastic forcing: The relative energy inequality and applications, Comm. Math. Physics 350, 443-473, 2017. D. Breit, M. Hofmanová: Stochastic Navier-Stokes equations for compressible fluids, Indiana Univ. Math. J. 65 (4), 1183-1250, 2016.

Podcasts N. Vercauteren: Lokale Turbulenzen, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/lokale-turbulenzen B.Valsler, D. Ansell: The Science of Turbulence, The Naked Scientists Podcast, 2010.

Sensoreinsatzplanung

Jan 26, 2018 58:46

Description:

Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber.

Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern.

Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden.

Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll.

In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern.

Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert.

Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt.

Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden.

Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen.

Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik

Luftspalt

Jan 12, 2018 33:55

Description:

Gudrun unterhält sich mit Tabitha Hoffmann über ihre im Dezember 2017 vorgelegte Masterarbeit mit dem Titel: On the Applicability of Computational Fluid Dynamics on the Determination of Elements in the Thermal Circuit of Electrical Machines.

Das Projekt war eine Zusammenarbeit mit der Firma SEW-Eurodrive in Bruchsal.

Das Temperaturverhalten von Elektromotoren ist von großem Interesse, denn kennt man die Temperaturverteilung im Elektromotor, kann man Aussagen über das Betriebsverhalten treffen und einzelne Komponenten effektiv vor Überhitzung schützen. Besonders interessant ist dabei der Raum zwischen Rotor und Stator der elektrischen Maschine, der als Luftspalt bezeichnet wird. Um die Auswirkung von Geometrieänderungen auf den thermischen Widerstand am Luftspalt abschätzen zu können, könnten ergänzende Computersimulationen große Vorteile bringen. Im Rahmen der Arbeit von Tabitha wird erstmals prinzipiell untersucht, ob aktuell die numerische Strömungsrechnung (engl. Computational Fluid Dynamics, kurz CFD) - gekoppelt mit Wärmeübertragungssimulationen - den thermischen Widerstand am Luftspalt genau genug bestimmen kann, um hier von Nutzen zu sein.

In erster Näherung lässt sich der Luftspalt relativ elementar als Ringraum darstellen. Noch interessanter wären natürlich Ergebnisse, die auf einer möglichst präzisen Geometrienachbildung des Luftspaltes im Computer beruhen.

Eine umfangreiche experimentelle wie theoretische Studie liegt zum Glück in Form der Dissertation von Becker aus dem Jahr 1957 vor. Beckers experimentelle Daten sind fundiert und präzise und bilden somit eine gute Grundlage für die Validierung der Simulationsergebnisse in der Masterarbeit.

Exemplarisch werden von Tabitha zwei typische CFD-Zugänge gewählt: Einerseits Ansys CFX, da es ein weit verbreitetes und bei SEW gut eingeführtes kommerzielles Softwarepaket ist (es arbeitet als Black box auf der Basis von Finite-Volumen-Methoden ) und andererseits OpenLB, welches eine open source Forschungssoftware ist (auf der Basis von Lattice Boltzmann Methoden (LBM)), die in der Gruppe von Mathias Krause ständig weiterentwickelt wird. Beide Softwarepakete haben je eigene Vor- und Nachteile und stellen zwei typische Fälle dar. Das betrifft z. B. die anwenderfreundliche Benutzeroberfläche in einer kommerziellen Software, die jedoch auf den konkreten Anwendungsfall nur eingeschränkt speziell zugeschnitten werden kann vs. ein in der Schnittstelle nicht so ausgereiftes Produkt, für das jedoch recht schnell konkrete Module für das vorliegende Problem programmiert werden können.

Außerdem sind auch die numerischen Paradigmen beider Pakete grundlegend unterschiedlich. Ansys CFX ist klassisch auf die numerische Lösung von kontinuierlich formulierten partiellen Differentialgleichungen spezialisiert, während LBM ein diskretes Modell für Strömung wählt und dieses dynamisch entfaltet.

Als möglichst einfacher Einstieg in die Thematik wird in der Arbeit zunächst von Wärmeübertragung zwischen konzentrischen Zylindern mit rotierendem Innenzylinder ausgegangen und das Problem ohne axiale Strömung betrachtet. Man spricht von einer Taylor-Couette Strömung. Ist die Geschwindigkeiten des inneren Zylinders hoch genug, entstehen Taylor-Wirbel.

Die Simulationsergebnisse wurden mit den Messergebnissen von Becker und der Theorie zur freien Konvektion in horizontalen Ringen validiert. Anschließend wurden die Löser auf eine realistischere Geometrie angewendet mit Schlitzen am Stator (allerdings wieder ohne axiale Strömung).

Zusammenfassend kann gesagt werden, dass die Simulationsergebnisse in guter Übereinstimmung mit den Messergebnissen und der Theorie sind, aber nicht genau die gleiche kritische Taylorzahl liefern.

Ein grundlegendes Problem für beide numerische Zugänge ist, dass der Luftspalt im Vergleich zu den Radien von Rotor und Stator sehr klein ist.


Literatur und weiterführende Informationen ANSYS, Inc.: Innovative Turbulence Modeling: SST Model in ANSYS CFX/ ANSYS Inc. Version: 2011, Forschungsbericht ANSYS, Inc.: Ansys CFX Documentation 25th November 2017 Batchelor, G. K.: An introduction to fluid dynamics. Cambridge Univ. Press 1967. Becker, K. M.: An experimental and theoretical study of heat transfer in an annulus with an inner rotating cylinder, M.I.T., Diss., 1957 Chorin, A. J. ; Marsden, J. E.: A mathematical introduction to fluid mechanics. 2. ed. Springer Lancial, N. e.a.: Taylor-Couette-Poiseuille flow and heat transfer in an annular channel with a slotted rotor. In: International Journal of Thermal Sciences 112 (2017), Nr. Supplement C, 92 - 103. Hydrodynamische Instabilität

Kinetische Theorie

Dec 22, 2017 25:52

Description:

Gudrun wollte sich mit unserem neuen Kollegen über sein hauptsächliches Forschungsthema, die kinetische Theorie unterhalten. Diese Denkweise wurde zur Modellierung von Gasen entwickelt und ist inspiriert von physikalischen Vorstellungen, die kinetische Energie als inhärente Eigenschaft von Materie ansieht. Die kinetische Gastheorie schaut auf die mikroskopische Ebene, um schließlich makroskopische Größen wie Wärme und Temperatur besser zu erklären.

Im sogenannten idealen Gas bewegen sich unfassbar viele kleine Massepunkte entsprechend der Newtonschen Mechanik frei, ungeordnet und zufällig im Raum, stoßen dabei ab und zu zusammen und wir empfinden und messen den Grad der Bewegungsaktivität der Teilchen als Wärme. Die Einheit, die man dieser Größe zunächst zuwies war Kalorie von lat. Calor=Wärme. Heute ist die richtige SI-Einheit für Energie (und damit auch Wärme) das Joule.

Die messbare Größe Temperatur ist damit vereinfacht ausgedrückt die mechanische Engergie im Gassystem und das Modell liefert eine kinetische Theorie der Wärme. Man kann es aber auch als Vielteilchensystem von mikroskopischen Teilchen ansehen aus denen sich in klar definierten (unterschiedlichen) Grenzwertprozessen makroskopische Größen und deren Verhalten ableiten lassen. Die Untersuchung dieser Grenzwerte ist eine mathematisch sehr anspruchsvolle Aufgabe und bis heute ein offenes Forschungsfeld, in dem nur Stück für Stück spezielle Fragen beantwortet werden. Eine Schwierigkeit ist dabei nämlich, dass automatisch immer sehr unterschiedliche Skalen nebeneinander existieren und in ihrer Interaktion richtig gefaßt und verstanden werden müssen. Außerdem ist in der Regel jeder Grenzwert, für den sich interessante Forschungsergebnisse ergeben, innerhalb der Theorie eine Singularität.

Schon Hilbert hatte 1900 die axiomatische Fassung der Physik zwischen Mechanik und Wahrscheinlichkeitsrechnung als eines der wichtigen mathematischen Probleme für das 20. Jahrhundert dargestellt. Wir sind seitdem vorangekommen, aber es bleibt noch sehr viel zu tun. Zum Beispiel ist die mögliche Korreliertheit zwischen den Teilchenbewegungen für Gase eine offene Frage (außer für kurze Zeiten).

Ein Vorteil gegenüber der Zeit Hilberts ist heute, dass wir inzwischen auch den Computer benutzen können, um Modelle zu entwickeln und zu analysieren. Dafür muss man natürlich geeignete numerische Methoden entwickeln. In der Arbeit von Martin Frank sind es in der Regel Integro-Differentialgleichungen mit hyperbolischer partieller Differentialgleichung für die Modellierung von Bewegungen ohne Dämpfung. Diese haben schon durch die Formulierung viele Dimensionen, nämlich jeweils 3 Orts- und 3 Geschwindigkeitskomponenten an jedem Ort des Rechengebietes. Deshalb sind diese Simulationen nur auf großen Parallelrechnern umsetzbar und nutzen High Performance Computing (HPC). Hieraus erklärt sich auch die Doppelrolle von Martin Frank in der Verantwortung für die Weiterentwicklung der HPC-Gruppe am Rechenzentrum des KIT und der Anwendung von Mathematik auf Probleme, die sich nur mit Hilfe von HPC behandeln lassen.

Sehr interessant ist in dieser Theorie die gegenseitige Beeinflussung von Numerik und Analysis in der Behandlung kleiner Parameter. Außerdem gibt es Anknüpfungspunkte zur Lattice Boltzmann Research Group die am KIT das Software-Paket OpenLB entwickeln und anwenden.

Auch wenn sich geschichtlich gesehen die kinetische Theorie vor allem als Gastheorie etabliert hat, ist die Modellierung nicht nur in Anwendung auf Gase sinnvoll. Beispielsweise lassen sich Finanzmärkte aus sehr vielen unabhängig handelnden Agenten zusammensetzen. Das Ergebnis der Handlungen der Agenten ist der Aktienpreis - sozusagen die Temperatur des Aktienmarktes. Es lassen sich dann aufgrund dieses Modells Eigenschaften untersuchen wie: Warum gibt es so viele Reiche?

Außerdem geht es auch darum, die richtigen Modellannahmen für neue Anwendungen zu finden. Zum Beispiel ist ein Resultat der klassischen Gastheorie das Beer-Lambertsche Gesetz. Es besagt, dass Photonen durch Wolken exponentiell abgeschwächen werden. Messungen zeigen aber, dass dies bei unseren Wolken gar nicht gilt. Wieso? Dafür muss man schon sehr genau hinschauen. Zunächst heißt das wohl: Die zugrunde liegende Boltzmann-Gleichung ist für Wolken eine zu starke Vereinfachung. Konkret ist es die Annahme, dass man sich die Wolken als homogenes Medium vorstellt wahrscheinlich nicht zutreffend, d.h. die Streuzentren (das sind die Wassertropfen) sind nicht homogen verteilt. Um ein besseres Modell als die Boltzmann-Gleichung herzuleiten müsste man nun natürlich wissen: Welche Art der Inhomogenität liegt vor?

Martin Frank hat Mathematik und Physik an der TU Darmstadt studiert, weil er schon in der Schulzeit großes Interesse an theoretischer Physik hatte. Im Studium hat er sich schließlich auf Angewandte Analysis spezialisiert und darin auch nach dem Diplom in Mathematik an der TU Darmstadt weiter gearbeitet. In dieser Zeit hat er auch das Diplom in Physik abgeschlossen. In der Promotion an der TU Kaiserslautern wurde es aber die numerische Mathematik, der er sich hauptsächlich zuwandte. In der eigenen universitären Lehre - aber auch in speziellen Angeboten für Schülerinnen und Schüler - pendelt er zwischen Projekt- und Theorie-zentriertem Lehren und Lernen.

Literatur und weiterführende Informationen M. Frank, C. Roeckerath: Gemeinsam mit Profis reale Probleme lösen, Mathematik Lehren 174, 2012. M. Frank, M. Hattebuhr, C. Roeckerath: Augmenting Mathematics Courses by Project-Based Learning, Proceedings of 2015 International Conference on Interactive Collaborative Learning, 2015. Simulating Heavy Ion Beams Numerically using Minimum Entropy Reconstructions - SHINE M. Frank, W. Sun:Fractional Diffusion Limits of Non-Classical Transport Equations P. Otte, M. Frank: Derivation and analysis of Lattice Boltzmann schemes for the linearized Euler equations, Comput. Math. Appl. Volume 72, 311–327, 2016. M. Frank e.a.: The Non-Classical Boltzmann Equation, and Diffusion-Based approximations to the Boltzmann Equation, SIAM J. Appl. Math. 75, 1329–1345, 2015. M. Frank, T. Goudon: On a generalized Boltzmann equation for non-classical particle transport, Kinet. Relat. Models 3, 395-407, 2010. M. Frank: Approximate models for radiative transfer, Bull. Inst. Math. Acad. Sinica (New Series) 2, 409-432, 2007.

Zerstäubung

Dec 15, 2017 31:07

Description:

Corina Schwitzke ist Gruppenleiterin im Institut für thermische Strömungsmaschinen (ITS) am KIT. Gudrun wollte gern ein Gespräch über partikelbehaftete Strömungen mit ihr führen, denn dies ist ein wichtiges Thema in beiden Arbeitsgruppen.

In Corinas Institut gilt das Interesse vor allem der Zerstäubung von Kerosin zu feinen Tröpfchen in Flugtriebwerken Seit 10 Jahren gibt es dort Strömungssimulation mit einer sogenannten Partikelmethode. Die Partikel in dieser Anwendung sind Stützstellen der Rechenmethode und repräsentieren die Flüssigkeit, z.B. Kerosin, und das Gas, d.h. die verdichtete Luft. Vom Blickpunkt der Simulation aus sind die Partikel eigentlich nur Diskretisierungspunkte, die sich mit der Strömung mitbewegen. Sie repräsentieren dabei ein Volumen und die benutzten Koordinaten "schwimmen" mit dem Fluid, d.h. die Methode benutzt ein Lagrange-Koordinatensystem.

Die Gleichungen, die der Simulation zugrunde liegen, sind die Navier-Stokes Gleichungen - zunächst isotherm. Falls die Temperaturänderung mitbetrachtet werden muss, dann erfolgt das durch das Lösen der Energiegleichung, für die die diskrete Fassung sehr einfach zu realisieren ist. Das für den Zerstäubungsprozess gut geeignete numerische Verfahren, das am ITS umgesetzt wurde (und dort auch noch weiter entwickelt wird) ist Smoothed particle Hydrodynamics (SPH). Die Methode wurde zu Beginn der 1970er Jahre für die Simulation von Galaxie-Entstehung entwickelt. Ein großer Vorteil ist, dass das Verfahren sich extrem gut parallel implementieren läßt und die Simulation Gebiete ausspart, wo zunächst nichts passiert. Außerdem ist es einfacher, die Physik des Tröpfchenzerfalls zu modellieren als mit den klassischen kontinuumsmechanischen Ansätzen.

Der wichtigste Aspekt für die Simulation der Kraftstoffzerstäubung ist die Oberflächenspannung. Sie muss physikalisch und numerisch richtig beschrieben werden und führt dann dazu dass ein Flüssigkeitsfilm in Tropfen zerfällt. Hier geht das Wissen um Oberflächenspannungskoeffizienten ein, die aus Experimenten gewonnen werden ebenso wie die erwartbaren Kontaktwinkel an Wänden. Das Kräftegleichgewicht von angreifenden Scher- und Oberflächenkräften muss die modellierende Physik abbilden - die numerischen Partikel bekommen daraus direkt eine Geschwindigkeit zugewiesen, die auch ausdrückt, ob der Film reißt oder zusammenhängend bleibt.

Diese Partikelmethode vermeidet die Probleme von gitterbasierten Verfahren beim Reißen des Films, denn Grenzflächen werden automatisch mittransportiert. Durch die gut skalierende parallele Implementierung ist es möglich, mit einigen Milliarden Partikeln zu rechnen.

Die Ergebnisse der Simulationen haben vielfältige Anwendungen. Eine ist es Schadstoffemission zu minimieren. Das ist möglich durch erzwingen der vollständigen Verbrennung des Kraftstoffes oder durch die Vermeidung der Entstehung von Stick- und Schwefeloxiden im Prozess. Das kann durch die Kraftstoffverteilung und über die Temperaturniveaus gesteuert werden.

Eine andere Anwendung, die mit diesen Ideen schon funktioniert, ist die Kühlung von Zahnrädern in Getrieben durch einen Flüssigkeitsstrahl. In Zukunft soll auch die Simulation von Zerstäubung einer Biomasse möglich werden, die nichtnewtonsche Fließeigenschaften hat. Das große Ziel am ITS, das in naher Zukunft umgesetzt werden soll, ist ein virtueller Prüfstand für Zerstäubungsprozesse.

Corina Schwitzke (geb. Höfler) hat Verfahrenstechnik an der Uni Karlsruhe studiert mit einem Schwerpunkt in Richtung Strömungsmechanik und Verbrennungstechnik. Ihre Diplomarbeit fertigte sie in Los Angeles zu einem Thema im Kontext von Verbrennung an. Es folgte eine Promotion an der KIT-Fakultät Maschinenbau in Karlsruhe, in der sie die Grundlage für die physikalische Modellierung der Zerstäubung mittels der SPH-Methode leistete. Studierende aus der Technomathematik und Informatik sowie dem Maschinenbau unterstützen das Institut in der Implementierung des Verfahrens.



Literatur und weiterführende Informationen M.C. Keller e.a.:Turbomachinery Technical Conference and Exposition : Volume 2B - Turbomachinery Proceedings of ASME Turbo Expo 2017, Charlotte, North Carolina, USA, 26th - 30th June 2017, Art.Nr. GT2017-63594, ASME, New York (NY). doi:10.1115/GT2017-63594, 2017. M.C. Keller e.a.: Numerical Modeling of Oil-Jet Lubrication for Spur Gears using Smoothed Particle Hydrodynamics, 11th International SPHERIC Workshop, Munich, Germany, June 13-16, 2016, 69-76. S. Braun e.a.: Simulation of Primary Atomization: Assessment of the Smoothed Particle Hydrodynamics (SPH) Method ICLASS 2015 / 13th International Conference on Liquid Atomization and Spray Systems : August 23-27, 2015, Tainan, Taiwan. Ed.: Ta-Hui Lin C. Höfler:Entwicklung eines Smoothed Particle Hydrodynamics (SPH) Codes zur numerischen Vorhersage des Primärzerfalls an Brennstoffeinspritzdüsen. Dissertation. 2013. Karlsruhe. doi:10.5445/IR/1000048880 J.J. Monaghan: Smoothed Particle Hydrodynamics. Annu. Rev. Astrophys. 1992.

Podcasts T. Henn: Partikelströmungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 115, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Höllbacher: Finite Volumen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 122, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Mikrowellen

Dec 8, 2017 20:28

Description:

Gudrun unterhält sich diesmal mit Johanna Mödl. Johanna hat von August bis Oktober 2017 ihre Bachelorarbeit Analytische und numerische Untersuchungen zum mikrowelleninduzierten Temperaturanstieg von zylindrischen Probekörpern aus Beton geschrieben. Der Hintergrund war ein Thema aus dem Institut für Massivbau und Baustofftechnologie (Abt. Baustoffe und Betonbau). Dort wird untersucht, wie hochenergetische Mikrowellen solche Temperaturunterschiede in (trockenen) Betonkörpern erzeugen, dass der Werkstoff an der Oberfläche zerstört wird.

Um Erfahrungswerte im Umgang mit diesem Verfahren zu erhalten, werden derzeit Laborexperimente durch das Institut für Massivbau und Baustofftechnologie und das Institut für Hochleistungsimpuls- und Mikrowellentechnik, beides Institute des Karlsruher Instituts für Technologie, durchgeführt. Auf Basis der Messergebnisse wird versucht, den Vorgang durch einfache Gleichungen zu beschreiben, um vorhersagen zu können, wie er sich in größerem Maßstab verhält. Aufgrund der Komplexität des Prozesses werden nur vereinfachende Modelle betrachtet. Da diese sich durch partielle Differentialgleichungen beschreiben lassen, sollte der Vorgang während der Bachelorarbeit aus mathematischer Sicht analysiert werden.

Die Ausbreitung der Mikrowellen-Energie als Wärme im Baustoff wird durch die Wärmeleitungsgleichung gut beschrieben. Dies ist eine in der Mathematik wohlstudierte Gleichung. Im Allgemeinen lassen sich aber analytische Lösungen nur schwer oder gar nicht berechnen. Daher mussten zusätzlich numerische Verfahren gewählt und implementiert werden, um eine Approximation der Lösung zu erhalten. Johanna entschied sich für das Finite-Differenzen-Verfahren im Raum und ein explizites Eulerverfahren in der Zeitrichtung, da beide einfach zu analysieren und zu implementieren sind.

Erfreulicherweise stimmt die numerisch auf diese Weise approximierte Lösung mit den experimentellen Ergebnissen in den hauptsächlichen Gesichtspunkten überein. Die Wärme breitet sich von der Quelle in den Beton aus und es kommt im zeitlichen Verlauf zu einer kontinuierlichen Erwärmung in den Körper hinein.

Das größte Problem und die vermutliche Ursache dafür, dass die Meßdaten noch nicht ganz genau mit den Simulationen übereinstimmen ist, dass man physikalisch sinnvollere Randbedingungen bräuchte. Im Moment wird - wie üblich - davon ausgegangen, dass am Rand des Betonzylinders, wo nicht die Energie eintritt, der Körper Umgebungstemperatur hat. Hier bräuchte man eine phyiskalische Modellierung, die das korrigiert.

Literatur und weiterführende Informationen W. Hackbusch: Theorie und Numerik elliptischer Differentialgleichungen, Springer Spektrum, Wiesbaden, 4. Auflage, 2017. B. Lepers e.a.: A drying and thermoelastic model for fast microwave heating of concrete. Global Digital Central, Frontiers in Heat and Mass Transfer, 2014. M. Umminger e.a.: Ablation kontaminierter Oberflächen zementgebundener Bauteile beim Rückbau kerntechnischer Anlagen. Abschlussbericht, BMBF- Förderkennzeichen 02S8709 und 02S8719, Februar 2015.

Wahlprognosemodelle

Nov 24, 2017 40:09

Description:

Gudrun hat sich mit Oliver Beige unterhalten. Im Gespräch geht es um die theoretische Seite von Modellen für Wahlprognosen. Dabei beziehen sie sich in vielen Beispielen auf den Wahlkampf in den USA und insbesondere auf die Besonderheiten der Kampagne von Donald Trump. Die Gelegenheit bot sich vor einem gemeinsamen Konzertbesuch in Berlin-Neukölln in der Alten Welt Siralti.

In der Theorie sind Wahlprognosemodell traditionell in der Politologie verankert, wurden aber immer mehr durch ökonomische Modelle verbessert. Die größte Veränderung der letzten Jahre ist, dass es immer mehr empirische Daten gibt, die auch zum Teil der Öffentlichkeit zur Verfügung stehen. Solche Daten und Diskussionen zur Wertung finden sich z.B. auf der Webseite FiveThirtyEight. Große Berühmtheit erreichte schließlich Nate Silver dadurch, dass er 2008 in 49 von 50 US-Bundeststaaten das Ergebnis der US-Präsidentschaftswahlen korrekt vorhergesagt hatte. Im Wahljahr 2012 stimmte seine Vorhersage sogar in allen 50 Staaten. Seine Ergebnisse erzielte er dabei lediglich durch Aggregation von veröffentlichten Umfrageergebnissen.

Im Wahljahr 2016 hat aber Donald Trump die Wahl gewonnen obwohl Nate Silvers Modelle (und die Modelle ähnlich arbeitender Wahlforscher) die Wahrscheinlichkeit dafür, dass Hillary Clinton die Präsidentschaftswahl für sich entschieden wird, auf 70% - 99% beziffert hatten. Es stellt sich die Frage, wo der Fehler dieser Prognosemodelle lag.

Wenn man im Jahr 2016 genau zuhörte, gab es auch Stimmen, die Donald Trump schon im Frühjahr als wahrscheinlichen Gewinner der Wahlen sahen - z.B. die Zeitung Los Angeles Times. Sie wurden in den Medien zwar lieber als Ausreißer dargestellt, behielten aber schließlich recht. Wieso? Sie hatten den Demographiewandel in den USA in ihre Modellbildung einbezogen. Um zu verstehen, was damit gemeint ist, muss man zunächst einmal klarer beschreiben, wie US-Wahlen traditionell bisher abliefen, und welche Modelle daraus abgeleitet wurden.

Es gibt ein schönes Denkmodell, das veranschaulicht, wie das sogenannte Hotelling Gesetz (1929) wirkt. Man stelle sich zwei Eisverkäufer am Strand vor. Wie sollten sie jeweils ihren Stand so positionieren, dass sie möglichst viele Kunden anziehen? Die stille Annahme dabei ist, dass die Badenden gleichmäßig über den Strand verteilt sind und alle irgendwann Lust auf ein (genau ein) Eis bekommen. Das verblüffende Ergebnis ist: Ein Equilibrium der Einflussbereiche der beiden Verkäufer stellt sich ein, wenn beide in der Mitte des Strandes nebeneinander stehen.

Im Wahlkampf in den USA folgt man dieser Strategie, indem beide endgültigen Präsidentschaftskandidaten wenig ideologisch unterscheidbar aufgebaut werden. Begünstigt wird das auch durch das mehrstufige Wahlsystem, denn die Vorwahlen (Primaries) kann man dazu nutzen, dass die extremeren Kandidaten herausgefiltert werden. Dann entscheidet über den Sieg schließlich vor allem die erfolgreiche Mobilisierung der Wechselwähler. Eine (stillschweigende) Voraussetzungen dafür, dass von der Ähnlichkeit der Positionen der eigene Kandidat profitiert ist, dass die Wahlbeteiligung hoch ist. Das ist in den USA leider immer weniger der Fall.

Dass die Wahlen 2016 anders verliefen als gewohnt, zeigte sich, als bei den Republikanern die Establishmentkandidaten keine Chance gegen den idologisch extremen Trump hatten. Bei den Demokraten konnte jedoch die moderatere Hillary Clinton den ideologisch positionierten Bernie Sanders ruhig stellen. Das bricht mit den bisher gültigen Annahmen der Wahlvorhersagemodelle: Hotellings Model funktioniert nicht mehr. Aber nur weniger der Modelle erkennen die veränderte Situation und reagieren mit neuen Prognosemodellen. Trump hatte dann schließlich auch Erfolg mit seiner Strategie, die Clinton-Wählerschaft zu entmutigen überhaupt zur Wahl zu gehen und die eigene - eigentlich kleine - Clientel extrem zu mobilisieren.

Den Trend zur Radikalisierung der Republikaner beobachtet man tatsächlich schon eine Weile. Er setzte etwa mit der Wahl von Reagan ein. Es gab die inzwischen sprichwörtlichen "27%" -- Wähler, die auch einen völlig unqualifizierten rechtsgerichteten Kandidaten wählen. Der sprichwörtliche Name wurde erfunden, nachdem bei der Senatswahl in Illinois ein erkennbar aussichtsloser Kandidat gegen den damals unbekannten Obama 27% der Stimmen erhielt. Diese Zahl ist seitdem eher gestiegen.

Für Wahlprognosen braucht es also Modelle, die dieses bekannte menschliche Verhalten besser berücksichtigen. Keith T. Poole und Howard Rosenthal sammeln alle Stimmen im amerikanischen Kongress - das sind ja einfache Ja/Nein Entscheidungen - und analysieren sie fortlaufend. Ihre Methoden lieferten Politikwissenschaftlern erstmals rigorose quantitative Methodiken für Ideologiehörigkeit von Entscheidern über die Zeit der Existenz der USA hinweg. Man nennt dies die Nominal Three-Step Estimation.

Literatur und weiterführende Informationen Eisverkäufer Modell K.T. Poole, H. Rosenthal: A Spatial Model for Legislative Roll Call Analysis GSIA Working Paper No. 5–83–84, 1983. K.T. Poole, H. Rosenthal: Congress: A Political-Economic History of Roll Call Voting. New York: Oxford University Press, 1997. K.T. Poole, H. Rosenthal: Congress: Ideology and Congress New Brunswick, Transaction Publishers, 2007. NOMINATE and American Political History: A Primer. W-NOMINATE in R: Software and Examples H. Hotelling: Stability in Competition Economic Journal 39: 41–57, 1929. Voteview, the online voting data repository started by Poole & Rosenthal. Poll-Aggregatoren erklären, warum sie danebenlagen.

Weather Generator

Nov 17, 2017 38:24

Description:

Gudrun is speaking with the portuguese engineer Bruno Pousinho. He has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities.

Bruno spent his second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of his supervisor at KIT while he worked on his Master's thesis at the Chair of Renewable and Sustainable Energy Systems (ENS) at TUM in Garching. His direct contact person there was Franz Christange from the group of Prof. Thomas Hamacher.

Renewable energy systems are a growing part of the energy mix. In Germany between 1990 and 2016 it grew from 4168 GW to 104024 GW. This corresponds to an annual power consumption share of 3.4% and 31.7%, respectively. But in the related research this means a crucial shift. The conventional centralized synchronous machine dominated models have to be exchanged for decentralized power electronic dominated networks - so-called microgrids. This needs collaboration of mechanical and electrical engineers. The interdisciplinary group at TUM has the goal to work on modeling future microgrids in order to easily configure and simulate them.

One additional factor is that for most renewable energy systems it is necessary to have the right weather conditions. Moreover, there is always the problem of reliability. Especially for Photovoltaics (PV) and wind turbines Weather phenomena as solar irradiation, air temperature and wind speed have to be known in advance in order to plan for these types of systems.

There are two fundamentally different approaches to model weather data. Firstly the numerical weather and climate models, which provide the weather forecast for the next days and years. Secondly, so-called weather generators. The numerical models are very complex and have to run on the largest computer systems available. For that in order to have a simple enough model for planning the Renewable energy resources (RER) at a certain place weather generators are used. They produce synthetic weather data on the basis of the weather conditions in the past. They do not predict/forecast the values of a specific weather phenomenon for a specific time but provides random simulations whose outputs show the same or very similar distributional properties as the measured weather data in the past.

The group in Garching wanted to have a time dynamic analytical model. The model is time continuous which grant it the ability of having any time sampling interval. This means it wanted to have a system of equations for the generation of synthetic weather data with as few as possible parameters. When Bruno started his work, there existed a model for Garching (developped by Franz Christange) with about 60 parameters. The aim of Bruno's work was to reduce the number of parameters and to show that the general concept can be used worldwide, i.e. it can adapt to different weather data in different climate zones. In the thesis the tested points range from 33º South to 40º North.

In the synthesis of the weather generator the crucial tool is to use stochastic relations. Mostly the standard normal distribution is applied and shaped for the rate of change and corelation between RER. In particular this means that it describes the fundamental behavior of weather (mean, standard deviation, time- and cross-correlation) and introduces them into white noise in an analytical way. This idea was first introduced for crop estimation by Richardson in 1985. Time-dependence works on different time scales - through days and through seasons, e.g..

In the Analysis it is then necessary to parametrize the measured weather data and to provide a parameter set to the weather model.

Bruno started his Master course in Lisbon at Instituto Superior tecnico (IST). In his second year he changed to KIT in Karlsruhe and put his focus on Energy systems. In his thesis he uses a lot of mathematics which he learned during his Bachelor education and had to recall and refresh.

The results of the project are published in the open source model 'solfons' in Github, which uses Python and was developed in MATLAB.

References F. Christange & T. Hamacher: Analytical Modeling Concept for Weather Phenomena as Renewable Energy Resources, in IEEE International Conference on Renewable Energy Research and Applications (ICRERA), 2016. doi: 10.1109/ICRERA.2016.7884551 P. Ailliot, D. Allard, P. Naveau, C. D. Beaulieu, R. Cedex: Stochastic weather generators, an overview of weather type models, Journal de la Société Française de Statistique, Vol. 156, No 1, pp. 1-14, 2015. C.L. Wiegand, A.J. Richardson: Leaf area, light interception, and yield estimates from spectral components analysis, Agron. J., 76, 543, 1984. solfons: Artificial wheater data for energy system modeling, Software at GitHub.
Podcasts S. Seier, T. Alexandrin: Blindstrom - Der Energie Podcast, 2016-2017. M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. K. A. Zach, L. Bodingbauer: Energiespeicher, PHS186 in der Physikalischen Soiree, 2013. F. Trieb, T. Pritlive: Energie der Zukunft, RZ033 im Raumzeit Podcast, Metaebene Personal Media, 2012.

Dämpfung viskoser Flüssigkeiten

Nov 10, 2017 39:50

Description:

Gudrun und Karoline Disser trafen sich am Rand eines Seminarvortrages an der TU in Darmstadt. Dort arbeitet Karoline am internationalen Graduiertenkolleg Mathematical Fluid Dynamics als Postdoc. Der Forschungsgegenstand, über den die beiden schließlich ins Gespräch kamen, ist die Bewegung starrer Körper, in denen eine Flüssigkeit eingeschlossen ist.

Ein recht anschauliches Beispiel hierfür ist die Frage, wie man herausfinden kann, ob ein Ei schon gekocht oder noch roh ist. Wenn man es auf einer glatten Fläche aufrecht stehend rotieren lässt, bleibt das gekochte Ei fast aufrecht, während sich das rohe Ei schnell hinlegt und weiter um eine kurze Achse rotiert. Die Flüssigkeit verhindert die Präzession um die lange Achse.

Allgemeiner ausgedrückt untersucht Karoline Trägheitsbewegungen gekoppelter Systeme, die aus einem starren Körper bestehen mit einem Hohlraum, der vollständig mit einer viskosen Flüssigkeit gefüllt ist. Sie zeigt mathematisch, dass bei beliebigen Anfangsdaten mit endlicher kinetischer Energie, jede korrespondierende schwache Lösung im Laufe der Zeit in eine gleichmäßige Rotation übergeht. Darüber hinaus ist diese Rotation nur um die Trägheitsachse mit dem größeren Trägheitsmoment stabil. Anschaulich ist das bei einem symmetrischen Körper oft die geometrisch kürzeste Achse.

Unabhängig von der Geometrie und den Parametern zeigt dies, dass - wenn das System genug Zeit hat - das Vorhandensein von Flüssigkeit Präzession des Körpers verhindert.

Die theoretischen Untersuchungen wurden durch numerische Simulationen begleitet. In diesem Video zu einem Experiement eines mit Flüssigkeit gefülltem starrem Körpers wird der Effekt illustriert, dass wenn er zuerst um die lange Achse angedreht wird, in der freien Bewegung schnell zu einer Rotation um eine kurze Achse findet.

Interessant ist auch der Fall, wenn sich das flüssige Material nicht ähnlich wie Wasser verhält, sondern ein sogenanntes Nichtnewtonsches Fluid ist. Hierfür gibt es viele Anwendungen - zum Beispiel, wenn auch elastische Verformungen möglich sind. Das heißt konkret: In den partiellen Differentialgleichungen treten noch mehr nichtlineare Terme auf als im Fall der Navier-Stokes Gleichungen für wasserähnliche Stoffe. Für diese Terme müssen neue Techniken entwickelt werden.


Literatur und weiterführende Informationen K. Disser: Strong Solutions for the Interaction of a Rigid Body and a Viscoelastic Fluid, Journal of Mathematical Fluid Mechanics 15(4), 2012. K. Disser e.a.: L^p -theory for strong solutions to fluid-rigid body interaction in Newtonian and generalized Newtonian fluids, Transactions of the American Mathematical Society 365(3), 2013. K. Disser: Asymptotic behaviour of a rigid body with a cavity filled by a viscous liquid, arXiv:1405.6221, 2014. K. Disser e.a.: Inertial Motions of a Rigid Body with a Cavity Filled with a Viscous Liquid, Archive for Rational Mechanics and Analysis 221(1):1-40, 2016.
Podcasts H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Advanced Mathematics

Oct 13, 2017 1:06:00

Description:

Gudrun Thäter and Jonathan Rollin talk about their plans for the course Advanced Mathematics (taught in English) for mechanical engineers at the Karlsruhe Institute of Technology (KIT). The topics of their conversation are relevant in the mathematical education for engineers in general (though the structure of courses differs between universities). They discuss

how to embrace university mathematics, how to study, what is the structure of the educational program and what topics will be covered in the first semester in Karlsruhe.

For students starting an engineering study course it is clear, that a mathematical education will be an important part. Nevertheless, most students are not aware that their experiences with mathematics at school will not match well with the mathematics at university. This is true in many ways. Mathematics is much more than calculations. As the mathematical models become more involved, more theoretical knowledge is needed in order to learn how and why the calculations work. In particular the connections among basic ideas become more and more important to see why certain rules are valid. Very often this knowledge also is essential since the rules need to be adapted for different settings.

In their everyday work, engineers combine the use of well-established procedures with the ability to come up with solutions to yet unsolved problems. In our mathematics education, we try to support that skills insofar as we train certain calculations with the aim that they become routine for the future engineers. But we also show the ideas and ways how mathematicians came up with these ideas and how they are applied again and again at different levels of abstraction. This shall help the students to become creative in their engineering career.

Moreover seeing how the calculation procedures are derived often helps to remember them. So it makes a lot of sense to learn about proofs behind calculations, even if we usually do not ask to repeat proofs during the written exam at the end of the semester.

The course is structured as 2 lectures, 1 problem class and 1 tutorial per week. Moreover there is a homework sheet every week. All of them play their own role in helping students to make progress in mathematics.

The lecture is the place to see new material and to learn about examples, connections and motivations. In this course there are lecture notes which cover most topics of the lecture (and on top of that there are a lot of books out there!). So the lecture is the place where students follow the main ideas and take these ideas to work with the written notes of the lecture later on.

The theory taught in the lecture becomes more alive in the problem classes and tutorials. In the problem classes students see how the theory is applied to solve problems and exercises. But most importantly, students must solve problems on their own, with the help of the material from the lecture. Only in this way they learn how to use the theory. Very often the problems seem quite hard in the sense that it is not clear how to start or proceed. This is due to the fact that students are still learning to translate the information from the lecture to a net of knowledge they build for themselves. In the tutorial the tutor and the fellow students work together to find first steps onto a ladder to solving problems on the homework.

Gudrun and Jonathan love mathematics. But from their own experience they can understand why some of the students fear mathematics and expect it to be too difficult to master. They have the following tips:

just take one step after the other, and do not give up too early discuss problems, questions and topics of the lecture with fellow students - talking about mathematics helps to understand it teach fellow students about things you understand - you will be more confident with your arguments, or find some gaps to fix take time to think about mathematics and the homework problems sit down after the lecture, and repeat the arguments and ideas in your own words in order to make them your own use the problem classes and tutorials to ask questions

In the lecture course, students see the basic concepts of different mathematical fields. Namely, it covers calculus, linear algebra, numerics and stochastics. Results from all these fields will help them as engineers to calculate as well as to invent. There is no standard or best way to organize the topics since there is a network of connections inbetween results and a lot of different ways to end up with models and calculation procedures. In the course in Karlsruhe in the first semester we mainly focus on calculus and touch the following subjects:

Numbers Methods of proof Complex numbers Sequences and convergence Functions and continuity Series Differential calculus of one real variable Integral calculus Numerical integration Elementary differential equations

All of these topics have applications and typical problems which will be trained in the problem class. But moreover they are stepping stones in order to master more and more complex problems. This already becomes clear during the first semester but will become more clear at the end of the course.


Literature and related information K. F. Riley, M. P. Hobson, S. J. Bence: Mathematical Methods for Physics and Engineering. Cambridge University Press. K. F. Riley, M. P. Hobson: Foundation Mathematics for the Physical Sciences. Cambridge University Press. T. Arens, F. Hettlich, Ch. Karpfinger, U. Kockelkorn, K. Lichtenegger, H. Stachel: Mathematik.Spektrum Akademischer Verlag, Heidelberg (in German). J. Stewart: Calculus, Early Transcendentals. Brooks/Cole Publishing Company. K. Burg, H. Haf, F. Wille: Höhere Mathematik für Ingenieure. Volumes I-III. Teubner Verlag, Stuttgart (in German). E. Kreyszig: Advanced Engineering Mathematics. John Wiley & Sons. E.W. Swokowski, M. Olinick, D. Pence, J.A. Cole: Calculus. PWS Publishing Company. Boston.
Podcasts F. Hettlich: Höhere Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Lilium

Oct 6, 2017 47:42

Description:

Gudrun traf Patrick Nathen im April 2017 neben dem Flugfeld in Oberpfaffenhofen. Vielen ist dieser Ort ein Begriff, weil das Deutsche Zentrum für Luft- und Raumfahrt dort seinen Sitz hat. Auch das von Patrick mitgegründete Startup Lilium Aviation hat dort seine Büros. Die Vision von Lillium ist es ein Anbieter wie Uber zu werden - allerdings für den Luftraum. Dafür wird ein senkrecht startender Jet entwickelt, der mit Elektromotoren relativ leise und mit wenig Platzbedarf beim Starten und Landen Personen in Ballungsgebieten schnell von Punkt zu Punkt transportiert: Mobility on demand. Die Fluggeräte starten senkrecht wie Hubschrauber und auf Reisehöhe werden sie zum Jet. Diesem Traum waren sie zum Zeitpunkt unseres Gespräches schon sehr nahe: Der Prototyp flog und befand sich im Zulassungsverfahren der Europäischen Agentur für Flugsicherheit (EASA).

Neben den Fluggeräten muss auch die Infrastruktur entwickelt werden. Einerseits lassen sich die Helipads als Landeplätze in Metropolregionen nutzen, andererseits braucht es auch die Software, die Nutzer, Geräte und Landemöglichkeiten miteinander verbinden wird. In der Zukunft soll es sogar möglich werden, auf Piloten ganz zu verzichten, weil die Geräte vom Boden ferngesteuert werden.

Statt - wie Gudrun an dem Morgen - über eine Stunde aus der Innenstadt von München nach Oberpfaffenhofen zu fahren, würde sich die Reisezeit für diese Strecke auf etwa 5 min verkürzen. Das klingt zu schön, um wahr zu werden - diese Idee müssen Menschen erst für möglich halten bevor es Normalität werden kann. Die Geschichte von Lilium begann 2013 in der WG von vier Ingenieurstudenten - Daniel Wiegand, Matthias Meiner, Patrick Nathen and Sebastian Born - mit einer "spinnerten" Idee. Alle haben an der Fakultät für Maschinenwesen der TU München studiert oder promoviert. Sehr schnell hatten sie einen ersten großen Investor gefunden, sind auf ein Team von 40 Leuten gewachsen (Stand April - inzwischen sind es schon 70) und nun wird der Zweisitzer im 1:1 Modell getestet. Das Folgeprodukt soll schließlich auch eine bemannte Zertifizierung bekommen und eine effektive Problemlösung für die Allgemeinheit werden. Das betrifft dicht besiedelte Metropolregionen genauso wie ländliche Regionen mit wenig ÖPNV-Optionen. Dafür haben sie in der zweiten Finanzierungsrunde 90 Millionen Euro Kapital eingeworben.

Beim Starten und Landen gibt es auch in der von Lilium entwickelten Technologie Lärm wegen der Propeller, die für den Auftrieb sorgen. Da aber möglichst wenig Lärmentwicklung eine wichtige Voraussetzung dafür ist, dass sich die Technologie möglichst weit durchsetzen wird, wurde nach neuen Ideen zur Lärmvermeidung gesucht. Jetzt hat der Propeller eine Hülle. Dadurch wird weniger Schall abgestrahlt und die Effizienz erhöht. Im Reiseflug trägt sich der Flieger selbst. Um so einfach wie möglich zu bauen, muss man aber mit dem für Starten und Landen nötigen großen Motor irgendwie leben.

In der Konstruktion gingen sie approximativ vor. Als ersten Schritt kann man die nötige Spannweite und Flügelfläche zusammen mit der Fluggeschwindigkeit durch vorläufige aerodynamische Faustformeln schätzen. Die zu erreichenden Widerstands- und Auftriebsbeiwerte legen schließlich auch das Profil der Flügel mehr oder weniger fest. Und die statische Stabilität kann mit Hilfe von Vorerfahrungen mit klassischen Flugobjekten gesichert werden. Zum Beispiel durch eine elliptische Auftriebsverteilung, die widerstandsarm ist, weil sie Turbulenzen an den falschen Stellen vermeidet. Für genauere Untersuchungen mussten diese Ideen und die gesamte Geometrie aber zunächst am Computer simuliert werden. Hier gibt es Berührungspunkte zur Arbeit an Gudruns Lehrstuhl, denn die genaue Strömungsrechnung erfordert moderne Softwarepakete auf dem Gebiet.

Hinzu kommt, dass Batterien immer kritisch für die Sicherheit der Geräte sind. Sie heizen sich in der Start- und Landephase auf und das Kühlungskonzept muss wirklich clever sein. Die Anforderung ist, dass das Fluggerät im Winter in Schweden und im Sommer in Dubai funktioniert. Außerdem muss sichergestellt werden, dass eine brennende Batterie nicht zur Zerstörung des ganzen Gerätes führt. Schließlich sind auch Ergonomie und Raumluftkomfort keine unwichtigen Themen. Zum Beispiel müssen Böen durch den Flugcomputer abgefangen werden und hierfür ist Redundanz in den Triebwerken nötig.


Literatur und weiterführende Informationen K. Weltner: Flugphysik. Physik des Fliegens, Strömungsphysik, Raketen, Satelliten. Books on Demand, Norderstedt, ISBN 978-3-7412-1472-1. W.-H. Hucho: Aerodynamik der stumpfen Körper. Physikalische Grundlagen und Anwendungen in der Praxis. Vieweg + Teubner, Wiesbaden 2011, ISBN 978-3-8348-1462-3. P. Nathen e.a.: An extension of the Lattice-Boltzmann Method for simulating turbulent flows around rotating geometries of arbitrary shape, Conference: 21st AIAA Computational Fluid Dynamics Conference 2013. P. Nathen, D. Gaudlitz, N. Adams:Towards wall-adaption of turbulence models within the Lattice Boltzmann framework Conference: TSFP-9, 2015. Handelsblatt am 5.9.2017 Wired am 20.04.2017 Interview. Investor Frank Thelens Blick auf lilium Mitmachen bei lilium: Offene Stellen
Podcasts S. Cannon, M. Voelter: Flying the V-22 Osprey, omega tau Podcast, Episode 219, 2016. R. Rudnik, H. Klein: Auftrieb, Resonator-Podcast der Helmholtz-Gemeinschaft, Episode 71, 2015. W. Rudolf: Ein elektrisch angetriebenes VTOL-Flugzeug, CC2tv Audiocast Folge 568, 2017. (Folge 568 Direktlink zur mp3-Datei) N. Rottger: Die digitale Republik, piqd Podcast Magazin, 2017.

Lokale Turbulenzen

Sep 28, 2017 1:24:56

Description:

Nikki Vercauteren erforscht an der Freien Universität Berlin die mehrskalige Analyse von atmosphärischen Prozessen und traf sich mit Sebastian Ritterbusch in der Urania Berlin, um über ihre Forschung und ihre Experimente auf Gletschern zu sprechen.

Zum Zeitpunkt der Aufnahme fand in der Urania das Banff Mountain Film Festival, des Banff Centre for Arts and Creativity aus Kanada, statt. Auf dem Campus des Banff Centre befindet sich auch die Banff International Research Station (BIRS), ein Forschungsinstitut und Tagungsort nach Vorbild des Mathematischen Forschungsinstituts Oberwolfach, das sich der mathematischen Forschung und internationalen Zusammenarbeit verschrieben hat, und welches Nikki Vercauteren Anfang des Jahres zu einem Workshop besuchen konnte.

Das Forschungsgebiet der Meteorologie umfasst viele Phänomene, von denen einige durch Fluiddynamik beschrieben werden können. Dabei geht es um eine große Menge von Skalen, von der globalen Perspektive, über kontinentale Skalen zur Mesoskala im Wetterbericht und der Mikroskala zu lokalen Phänomenen.

Die Skalen bilden sich auch in den Berechnungsmodellen für die Wettervorhersage wieder. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) betrachtet die globale Perspektive mit Hilfe von Ensemblevorhersagen. Von dort verfeinert das aus dem lokalen Modell des Deutschen Wetterdienstes (DWD) entstandene COSMO Modell die Vorhersage auf die europäische und schließlich nationale Ebenen.

Hier geht es um die sehr lokale Analyse von Windgeschwindigkeiten, die bis zu 20mal pro Sekunde gemessen werden und damit die Analyse von lokalen Turbulenzen bis zum natürlichem Infraschall ermöglichen. Die Erfassung erfolgt mit Ultraschallanemometer bzw. ultrasonic anemometers, wo bei manchen Typen durch die Erfassung des Doppler-Effekts bewegter Staubteilchen die Bewegungsgeschwindigkeit der Luft durch mehrere Sensoren räumlich bestimmt wird. Teilweise werden auch Laser-Anemometer eingesetzt. Im Rahmen ihrer Promotion in Umweltwissenschaften an der École Polytechnique Fédérale de Lausanne (EPFL) bekam Sie die Gelegenheit selbst vor Ort eine Messanlage auf einem Gletscher mit aufzubauen und in Stand zu halten.

Der See- und Landwind sind typische Phänomene in der mikroskaligen Meteorologie, die Nikki Vercauteren zu ihrer Promotion am Genfersee zur Analyse von turbulenten Strömungen von Wasserdampf untersucht hat. Mit mehreren Laser-Doppler-Anemometern in einer Gitter-Aufstellung konnte sie so die Parametrisierung einer Large Eddy Simulation dadurch testen, in dem sie die im Modell angesetzte Energie in den kleinen Skalen mit den tatsächlichen Messungen vergleichen konnte.

Kernpunkt der Betrachtung ist dabei das Problem des Turbulenzmodells: Als Verwirbelung in allen Skalen mit teilweise chaotischem Verhalten ist sie nicht vorhersagbar und kaum vollständig mathematisch beschreibbar. Sie spielt aber wegen der wichtigen Eigenschaften der Vermischung und Energietransfers eine elementare Rolle im Gesamtsystem. Glücklicherweise haben Turbulenzen beobachtete statistische und gemittelte Eigenschaften, die modelliert und damit im gewissen Rahmen und diesem Sinne mit Hilfe verschiedener Modelle durch identifizierte Parameter simuliert werden können.

Besonderes Augenmerk liegt dabei auf der Betrachtung der Grenzschicht über dem Erdboden, die zum einen durch die Sonneneinstrahlung besonders durch die Aufwärmung und Abkühlung der Erdoberfläche beinflusst wird und gleichzeitig den Bereich beschreibt, wo das bewegte Fluid Luft auf die stehenden Erde reagiert. Eine meteorologische Eigenschaft der unteren Grenzschicht ist das theoretische logarithmische Windprofil, das aber bei Sonneneinstrahlung oder Nachts durch Verformung der Turbulenzen Korrekturterme erforderlich macht.

In einer Temperaturinversion wird die Grenzschicht stabiler und es bildet sich weniger Turbulenz aus, wodurch sich Schadstoffe auch weniger verteilen können. In diesen Wetterlagen kann sich durch den fehlenden Luftaustausch im Stadtgebiet leichter Smog bilden.

Entgegen der Theorie kann es interessanterweise trotz stabiler Schichtung zu Turbulenzen kommen: Ein Grund dafür sind Erhebungen und Senken des Bodens, die Luftpakete beeinflussen und damit lokale Turbulenzen erzeugen können. Eine besondere Fragestellung ist hier die Frage nach der Intermittenz, wann ein stabiles dynamisches System chaotisch werden kann und umgekehrt. Ein anschauliches Beispiel von Intermittenz ist das Doppelpendel, das von einem sehr stabilen Verhalten plötzlich in chaotisches Verhalten umschwenken kann und umgekehrt:

CC-BY-SA 100 Miezekatzen, commons.wikimedia.org/wiki/File:Trajektorie_eines_Doppelpendels.gif

Trajektorie eines Doppelpendels
CC-BY-SA 100 Miezekatzen


Leider ist bisher die Intermittenz in der Wettervorhersage nicht alleine aus der Theorie zu berechnen, jedoch kann man die Richardson-Zahl bestimmen, die den Temperaturgradienten in Verhältnis zur Windscherung stellt. Dieses Verhältnis kann man auch als Verhältnis der Energieverteilung zwischen kinetischer Bewegungsenergie und potentieller Wärmeenergie sehen und daraus Schlüsse auf die zu erwartende Turbulenz ziehen. Als ein dynamisches System sollten wir ähnlich wie beim Räuber-Beute Modell eine gegenseitige Beeinflussung der Parameter erkennen. Es sollte hier aus der Theorie auch eine kritische Zahl geben, ab der Intermittenz zu erwarten ist, doch die Messungen zeigen ein anderes Ergebnis: Gerade nachts bei wenig Turbulenz entstehen Zustände, die bisher nicht aus der Theorie zu erwarten sind. Das ist ein Problem für die nächtliche Wettervorhersage.

In allgemeinen Strömungssimulationen sind es oft gerade die laminaren Strömungen, die besonders gut simulierbar und vorhersagbar sind. In der Wettervorhersage sind jedoch genau diese Strömungen ein Problem, da die Annahmen von Turbulenzmodellen nicht mehr stimmen, und beispielsweise die Theorie für das logarithmische Windprofil nicht mehr erfüllt ist.

Diese Erkenntnisse führen auf einen neuen Ansatz, wie kleinskalige Phänomene in der Wettervorhersage berücksichtigt werden können: Die zentrale Frage, wie die in früheren Modellen fehlende Dissipation hinzugefügt werden kann, wird abhängig von der beobachteten Intermittenz mit einem statistischen Modell als stochastischen Prozess beantwortet. Dieser Ansatz erscheint besonders erfolgsversprechend, wenn man einen (nur) statistischen Zusammenhang zwischen der Intermittenz und der erforderlichen Dissipation aus den Beobachtungen nachweisen kann. Tatsächlich konnte durch statistisches Clustering und Wavelet-Analyse erstmalig nachgewiesen werden, dass im bisher gut verstanden geglaubten so genannten stark stabilen Regime es mehrere Zustände geben kann, die sich unterschiedlich verhalten.

Für die Entwicklung der Wavelet-Transformation erhielt Yves Meyer den 2017 den Abelpreis. Im Gegensatz zur Fourier-Transformation berücksichtig die Wavelet-Transformation z.B. mit dem Haar-Wavelet die von der Frequenz abhängige zeitliche Auflösung von Ereignissen. So können Ereignisse mit hohen Frequenzen zeitlich viel genauer aufgelöst werden als Ereignisse mit tiefen Frequenzen.

Das von Illia Horenko vorgeschlagene FEM-BV-VARX Verfahren kann nun mit den Erkenntnissen angewendet werden, in dem die verschiedenen Regimes als stochastische Modelle berücksichtigt und durch beobachtete bzw. simulierte externe Einflüsse gesteuert werden können.

Darüber hinaus konnten weitere interessante Zusammenhänge durch die Analyse festgestellt werden: So scheinen im stabilen Regime langsame Wellenphänomene über mehrere Skalen hinweg getrennt zeitliche schnelle und lokale Turbulenzen auszulösen. Andere Phänomene verlaufen mit stärkeren Übergängen zwischen den Skalen.

Aus der Mathematik ist Nikki Vercauteren über die Anwendungen in der Physik, Meteorologie und Geographie nun wieder zurück in ein mathematisches Institut zurückgekehrt, um die mathematischen Verfahren weiter zu entwickeln.


Literatur und weiterführende Informationen N. Vercauteren, L. Mahrt, R. Klein: Investigation of interactions between scales of motion in the stable boundary layer, Quarterly Journal of the Royal Meteorological Society 142.699: 2424-2433, 2016. I. Horenko: On the identification of nonstationary factor models and their application to atmospheric data analysis, Journal of the Atmospheric Sciences 67.5: 1559-1574, 2010. L. Mahrt: Turbulence and Local Circulations Cesar Observatory, Cabauw site for meteorological research.
Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. I. Waltschläger: Windsimulationen im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruhe Institut für Technologie (KIT), 2014. L. Wege: Schwebestaub und Wassertröpfchen. Wie Wolken Wetter machen. Folge 5 im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, 2017. M. Wendisch: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. R. Heise, K. Ohlmann, J. Hacker: Das Mountain Wave Project, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 042, 2010. B. Marzeion: Gletscher, Podcast Zeit für Wissenschaft von Melanie Bartos, Universität Innsbruck, 2015. B. Weinzierl: Die Atmosphäre, Raumzeit Podcast von Tim Pritlove, Metaebene Personal Media, 2011.

Raumklima

Sep 15, 2017 16:44

Description:

Gudrun hat sich auf den Weg an ihre Alma Mater nach Dresden gemacht, um mit einem ehemaligen Kommilitonen zu sprechen, der dort als Diplom-Mathematiker schon seit 30 Jahren unter Ingenieuren Strömungssimulation betreibt. Markus Rösler hat von 1982-87 an der TU Dresden Mathematik studiert. Im Industriepraktikum im Rahmen des Studiums kam er in Berührung mit der damaligen Sektion Energieumwandlung und stieg dort für drei Monate in die Strömungssimulation ein. Nach dem Studium wechselte er dauerhaft auf eine Stelle im Institut für Srömungsmechanik in der damaligen Sektion Energieumwandlung, promovierte zum Dr.-Ing. und arbeitet seitdem neben der Lehre für Maschinenbauer an Projekten mit, die Strömungen in Gebäuden und in Räumen besser vorhersagen und analysieren zu können. Inzwischen an der Fakultät Maschinenwesen, Professur für Gebäudeenergietechnik und Wärmeversorgung.

Gudrun und Markus teilen die Faszination für Strömungen, die fast schon philosophisch tief greift sowohl in der Beschreibung der Beobachtungen als auch im Verständnis der Phänomenologie. Das Tagesgeschäft in Markus' Alltag an der TU Dresden sind die Erforschung der Wirkung von Strömung im Raum auf Energiebedarf und thermische Behaglichkeit. Das erfolgt einerseits in konkreten Projekten - andererseits aber auch in grundlegenden Überlegungen für Situationen in Typenräumen in typischen Situationen. So entstand bereits ein Katalog, in dem sich Aussagen finden lassen, wie gebaut oder umgebaut werden kann, um die Energie effektiver zu nutzen.

Ein Problem in der numerischen Simulation ist, dass die Strömung in Innenräumen in der Regel eine nicht vollständig ausgebildete turbulente Strömung ist. D.h. die Modellgleichungen sind jeweils - optimistisch ausgedrückt - im Grenzfall der Gültigkeit, da es weder laminar noch wirklich voll turbulent strömt. Die geometrische Auflösung ist dabei auch ganz kritisch. In einem Plattenheizkörper muss beispielsweise die genaue Luftströmung um den Heizkörper mit all seinen Lamellen berücksichtigt werden. Außerdem die Wasserströmung im Heizkörper.

Die Strömungen werden in der Arbeitsgruppe in der Regel mit einer Reynolds-Mittelung der Navier-Stokes Gleichungen gerechnet, die mit geeigneten Turbulenzmodellen gekoppelt wird. Hier ergibt sich jedoch in der Regel ein Schließungsproblem, d.h. es gibt zu wenige Gleichungen für die Zahl der Variablen. Diese Lücke wird mit gewählten Parametern, die auf Messungen beruhen, geschlossen. Alle Rechnungen sollten etwa in Echtzeit erfolgen. Dafür sind die eben genannten Methoden gut geeignet. Andererseits werden immer genauere Rechnungen nötig, die mit den bisher genutzten Mittelungen nicht möglich sind. Dafür arbeiten sich Markus und seine Kollegen in neue Methoden ein - wie z.B. Lattice Boltzmann Modelle. Aber es ist noch sehr schwierig, mit diesen neuen und genaueren Methoden die geforderten Rechengeschwindigkeiten zu erreichen.

Ein konkretes Beispiel aus der aktuellen Arbeit sind Simulationen für Dialyseräume. Es geht darum, Heizung, Lüftung und Kühlung für maximale thermische Behaglichkeit auszulegen. Dafür wird die Geometrie das Raumes, der Geräte und der Personen im Computer genau nachgebildet.

Die Energiewende fordert von der Forschung nachhaltige Lösungen für die Wärmeversorgung und die Elektroenergietechnik. Im Lehrstuhl werden hierfür z.B. regionale virtuelle Kraftwerke untersucht. Für Markus geht es jedoch im engeren Sinne eher um die effektive Nutzung der Energie. Konkret werden in der nächsten Zeit instationäre Szenarien für thermische Behaglichkeit untersucht. Probanden können in einem Versuchsraum dem Anheben und Absenken von Temperaturen ausgesetzt werden und die Frage beantworten: Wann wird es unbehaglich? Es ist möglich Puffer für Wärme/Kälte mit Hilfe von Technik oder dem Gebäude selbst zu füllen und so zu nutzen, wie die Erkenntnisse aus der Probandenforschung es sinnvoll erscheinen lassen. An diesen Fragestellungen ist natürlich besonders interessant, dass eine Brücke zu Gesundheit und (Arbeits-)Medizin geschlagen wird.

Als Mathematiker hat Markus unter den Energietechnikern zunächst eine steile Lernkurve absolviert, aber er findet nach wie vor die Ansicht auf Probleme von zwei Seiten - mathematisch und ingenieurtechnisch - besonders hilfreich. Die von den Ingenieuren benutzen numerischen Modelle sind zwar vereinfacht - mitunter sogar stark vereinfacht - aber doch erstaunlich zutreffend und lösen tatsächlich die Probleme sehr gut.


Literatur und weiterführende Informationen Video zum Klimaraum am Institut X. Yuan, M. Rösler, R. Gritzki, C. Felsmann: Lattice-Boltzmann-Methoden zur Berechnung von Raumluftströmungen, GI Gesundheitsingenieure 2017. J. Seifert, R. Gritzki, A. Perschk, M. Rösler, M. Knorr, M. Wild, C. Russ: Co-Simulation am Beispiel eines Dialyseraums, GI Gesundheitsingenieur 2017. R. Gritzki, C. Kandzia, M. Rösler, C. Felsmann: Frische Luft direkt am Arbeitsplatz – Vergleich von konventioneller und persönlicher Lüftung in Büroräumen, Bauen im Bestand, März 2017. R. Gritzki, C. Kandzia, M. Rösler,C. Scheer, C. Felsmann: Simulation und experimentelle Evaluierung thermoaktiver Textilien für die energieeffiziente Heizung und Kühlung von Räumen, Tagungsbeitrag BauSIM 2016, September 2016. W. Kozak, D. Stein, C. Felsmann, B. Hensel, K. Kabitzsch, M. Rösler: AmI-basierte Regelung von Klimaanlagen und Anwendung auf das Phänomen der \"Trockenen Luft\" Bundesanstalt für Arbeitsschutz und Arbeitsmedizin, Dortmund, 2014 (ISBN: 978-3-88261-033-8) G. Lube, T. Knopp, R. Gritzki, M. Rösler, J. Seifert: Application of domain decomposition methods to indoor air flow simulation, International Journal of Computer Mathematics, Volume 85, Issue 10 (October 2008). T. Knopp, G. Lube, R. Gritzki, M. Rösler: A near-wall strategy for buoyancy-affected turbulent flows using stabilized FEM with applications to indoor air flow simulation, Computer Meths. Applied Mechan. Engrg. 194 (2005) 3797-3816.
Podcasts B. Hagemann, A. M. Falah: Cooles Büro - Labor fürs Raumklima, KIT Wissen, 2014.

Gender und Mathematik

Aug 11, 2017 57:59

Description:

Gudrun Thäter hat sich an der FU Berlin zu einem Gespräch über Geschlecht und Mathematik mit Anina Mischau & Mechthild Koreuber verabredet. Anina Mischau leitet dort im Fachbereich Mathematik und Informatik die Arbeitsgruppe Gender Studies in der Mathematik. Dies ist in Deutschland die einzige derartige Stelle, die innerhalb der Mathematik angesiedelt ist. Sie hat dort vielfältige Aufgaben in Forschung und Lehre mit einem gewissen Schwerpunkt in der Ausbildung für das Lehramt. Dort hilft sie, einen Grundstein dafür zu legen, dass zukünftige Mathelehrkräfte für die Bedeutung der sozialen Kategorie Geschlecht bei der Vermittlung und beim Lernen von Mathematik sensibilisiert werden und lernen, einen gendersensiblen Mathematikunterricht zu gestalten. Auf Vorschlag von Anina Mischau hatten wir auch die zentrale Frauenbeauftragte der FU - Mechthild Koreuber - herzlich zu unserem Gespräch eingeladen. Auch sie ist studierte Mathematikerin und hat über Mathematikgeschichte promoviert.

Uns alle bewegen solche Fragen wie:

Warum entsprechen die Anteile von Frauen in höheren Ebenen der Mathematikfachbereiche nicht ihren Anteilen in den Eingangsstadien wie Studium oder Promotion? Liegt es auschließlich an den Eigenheiten der akademischen Laufbahn oder gibt es hierfür zudem spezifisch fachkulturelle Gründe? Was bedeutet es für die Mathematik, wenn sie ausschließlich von Männern entwickelt wird?

In der wissenschaftlichen Arbeit hierzu verfolgen die zwei Gesprächspartnerinnen von Gudrun vier unterschiedliche Forschungsrichtungen:

Wie stellt sich die Geschichte von Frauen in der Mathematik dar? Welche didaktischen Ansätze sind geeignet, um mehr Menschen zu Mathematik einzuladen? Was sind Exklusionsmechanismen für Frauen (und nicht in die vorherrschende Mathematiker-Norm passende andere Personen) in der Mathematik? Wie könnte eine Mathematik aussehen, die das Potential von unterschiedlicheren Menschen einbezieht?


In der Geschichte der Mathematik geht es nicht nur darum, das Vergessen in und die Verdrängung von Frauen aus der eigenen Disziplingeschichte sichtbar zu machen, sondern vor allem auch um das Aufzeigen, wo und wie das Werk und Wirken von Mathematikerinnen mathematische Diskurse und damit innermathematische Entwicklungen der Disziplin beeinflusst haben. Ein Thema, an dem Mechthild Koreuber zum Beispiel intensiv forscht, ist die Schule um Emmy Noether. Wie konnte es einen so großen Kreis von Schülerinnen und Schülern geben, die bei ihr lernen wollten, trotz eigener prekären Stellensituation und damit verbunden auch (formal) wenig Reputationsgewinn für ihre Schüler und Schülerinnen. Es kann eigentlich nur die Faszination der mathematischen Ideen gewesen sein!

Das Bild der Mathematik als von Männern entwickelte und betriebene - also männliche - Disziplin ist verquickt mit der Vorstellung, was von uns als Mathematik eingeordnet wird, aber auch wem wir mathematische Fähigkeiten zuschreiben. Automatisch werden innerhalb dieses Ideen- und Personennetzes Frauen bei gleichem Potential gegenüber ins Bild passenden Männern benachteiligt und ihr Potential kommt nicht so gut zur Entfaltung. Daneben feiern längst überwunden geglaubten Stereotype fröhliche Urständ, wie am 1.2. 2017 im ZEIT-Artikel Lasst Mädchen doch mit Mathe in Ruhe.

Nicht ganz unschuldig am Abschied der Frauen von der Mathematik sind sicher auch unsere häufig steinzeitlichen Unterrichts-Konzepte auf der Hochschulebene, denn Mathematik ist nicht - wie angenommen - überkulturell. Wenn wir Mathematik betreiben, neue Ergebnisse gewinnen oder Mathematik vermitteln sind wir eingebunden in soziale und kulturelle Produktionszusammenhänge wie Kommunikationsprozesse, die u.a. auch durch die soziale Kategorie Geschlecht mit geprägt werden. Außerdem ist wie Mathematik publiziert und unterrichtet wird nicht wie Mathematik entsteht. Die Freude und Neugier an Mathematik wird in der Ausbildung nicht in den Vordergrund gestellt. Statt dessen ist Mathematik gerade für zukünftige Lehrkräfte oft mit negativen Gefühlen und einem eher eindimensionalen (und vielleicht auch stereotypen) Verständnis von Mathematik besetzt, was später in der eigenen schulischen Praxis unbeabsichtigt an Kindern und Jugendliche als Bild von Mathematik weitergegeben wird. Um diesen Teufelskreis aufzubrechen braucht es mehr Freiräume und auch neue Konzepte und Ansätze in der Hochschullehre.

Wir Mathematiker und Mathematikerinnen sind für das Bild der Mathematik in der Gesellschaft verantwortlich. Ganz besonders in der Ausbildung für das Lehramt können wir hier starken Einfluss nehmen. Dafür müssen wir besser verstehen: Wo und wie werden Ideen ausgeschlossen, die dem engen vorherrschenden Bild von Mathematik nicht entsprechen? Wieso ist es ok, öffentlich auf Distanz zu Mathematik zu gehen (und damit zu kokettieren: In Mathe war ich immer schlecht) oder "Mathematiker als Nerd" oder halb verrückte Menschen darzustellen? Dieses Bild gehört neu gezeichnet durch allgemeinverständliches Reden über Mathematik und ihre Rolle für uns alle. Darüber hinaus ist und bleibt Mathematik eine soziale Konstruktion - das ist nicht immer leicht zu akzeptieren. Im Kontext der Geschlechterforschung werden Geschlechterasymmetrien und Geschlechterunterschiede im Fach Mathematik als Produkt einer Wechselwirkung zwischen der sozialen Konstruktion von Geschlecht und der sozialen Konstruktion von Mathematik gesehen werden, die in der Vermittlung der Mathematik (im schulischen Unterricht wie in der Hochschullehre) reproduziert wird. Die soziale Konstruktion von Mathematik und ihre Wechselwirkung mt anderen sozokulturellen Konstruktionen kann aber auch jenseits der Diskurse in der Geschlechterforschung verdeutlicht werden - z.B. an der Zeit des Nationalsozialismus. Offensichtlich entschieden damals äußere Faktoren darüber, wer Mathematik machen und vermitteln darf und es wird der oft verdeckte (oder verleugnete) kulturelle und gesellschaftliche Einfluss auf die Disziplin sichtbar. Es wäre wünschenswert, wenn man auch für solche Themen Qualifikationsarbeiten in der Mathematik als fachintern ansehen lernen würde.

Gemeinsam beschreitet man an der FU neue Wege: In Anträgen für Forschungsmitteln werden auch Projekte für wissenschaftliche Untersuchungen in den Forschungsclustern mitgeplant, die verstehen wollen wie und warum Frauen in der Disziplin bleiben oder gehen, was die Wissenschaftler (und Wissenschaftlerinnen) für ihren Nachwuchs tun und wie sich das auf Diversität auswirkt.

Leider wird Mathematikphilosophie und - geschichte derzeit nicht als Teil der Disziplin Mathematik wahrgenommen. Es fehlt der Respekt - das Gefühl des Sprechens auf gleicher Augenhöhe. Ein Wunsch wäre: In naher Zukunft einen Workshop im Mathematischen Forschungsinstitut Oberwolfach zum Thema Mathematik neu Denken zu organisieren. Das wäre eine Art Lackmustest, ob Bereitschaft zum Wandel in der Mathematik besteht. Im Januar gab es immerhin schon einen Mini-Workshop zum Thema Frauen in der Mathematikgeschichte.


Literatur und weiterführende Informationen A. Blunck, A. Mischau, S. Mehlmann: Gender Competence in Mathematics Teacher Education, in Gender in Science and Technology. Interdisciplinary Approaches. Hrsg. Waltraud Ernst, Ilona Horwarth, 235–257 Bielefeld, 2014. L. Burton: Moving Towards a Feminist Epistemology of Mathematics, Educational Studies in Mathematics 28(3): 275–291, 1995. B. Curdes: Genderbewusste Mathematikdidaktik, In Gender lehren – Gender lernen in der Hochschule: Konzepte und Praxisberichte. Hrsg. Curdes, Beate, Sabine Marx, Ulrike Schleier, Heike Wiesner, S. 99-125. Oldenburg: BIS-Verlag, 2007. M. Koreuber, Hrsg: Geschlechterforschung in Mathematik und Informatik, Eine (inter)disziplinäre Herausforderung. Baden-Baden: Nomos, 2010. M. Koreuber: Emmy Noether, die Noether-Schule und die moderne Algebra. Zur Geschichte einer kulturellen Bewegung, Heidelberg: Springer, 2015. B. Langfeldt, A. Mischau, F. Reith, K. Griffiths: Leistung ist Silber, Anerkennung ist Gold. Geschlechterunterschiede im beruflichen Erfolg von MathematikerInnen und PhysikerInnen. In Bettina Langfeldt, Anina Mischau, 76–111. Strukturen, Kulturen und Spielregeln. Faktoren erfolgreicher Berufsverläufe von Frauen und Männern in MINT. Baden-Baden: Nomos, 2014. B. Langfeldt, A. Mischau: Die akademische Laufbahn in der Mathematik und Physik. Eine Analyse fach- und geschlechterbezogener Unterschiede bei der Umsetzung von Karrierewissen. Beiträge zur Hochschulforschung 37(3): 80–99, 2015. M. McCormack: Mathematics and Gender. Debates in Mathematics Education. Hrsg. Dawn Leslie, Heather Mendick, 49–57. London: Routledge, 2013. H. Mendick: Masculinities in Mathematics. Open University Press. McGraw-Hill Education (UK), 2006. H. Mihaljević-Brandt, L. Santamaria, M. Tullney: The Effect of Gender in the Publication Patterns in Mathematics, PloS one 11.10: e0165367, 2016. A. Mischau, K. Bohnet: Mathematik „anders“ lehren und lernen. In Gender – Schule – Diversität. Genderkompetenz in der Lehre in Schule und Hochschule. Hrsg. Ingrid Rieken, Lothar Beck, 99–125. Marburg: Tectum, 2014. A. Mischau, S. Martinović: Mathematics Deconstructed?! Möglichkeiten und Grenzen einer dekonstruktivistischen Perspektive im Schulfach Mathematik am Beispiel von Schulbüchern. In Queering MINT. Impulse für eine dekonstruktive Lehrer_innenbildung. Hrsg. Nadine Balze, Florian Chistobal Klenk und Olga Zitzelsberger, 85–104. Opladen: Budrich, 2017. C. Morrow, T. Perl: Notable Women in Mathematics: A Biographical Dictionary. Westport, Connecticut: Greenwood Publishing Group, 1998. B. Shulman: What if we change our Axioms? A Feminist Inquiry into the Foundations of Mathematics. Configurations 4(3): 427–451, 1996. R. Tobies, Hrsg: Aller Männerkultur zum Trotz. Frauen in Mathematik, Naturwissenschaften und Technik. Erneuerte und erweiterte Auflage der Erstveröffentlichung 1997. Frankfurt a. M: Campus, 2008. Ethnomathematik A. Radunskaya: President´s report Newsletter of the Association of Women in mathematics, Juli/Aug. 2017. T. Gowers: Blogpost in Gower's Weblog March 10th, 2009. Gendergap in science Bericht des Oberwolfach Mini-Workshops Women in Mathematics: Historical and Modern Perspectives 8.-14.1. 2017.
Podcasts C. Rojas-Molian: Rage of the Blackboard, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 121, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. G.M. Ziegler: Was ist Mathematik? Gespräch mit G. Thäter im Modellansatz Podcast, Folge 111, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. N. Dhawan: Postkolonialismus und Geschlechterforschung, Gespräch mit M. Bartos im Zeit für Wissenschaft Podcast, Folge 13, Universität Innsbruck, 2015. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016.

In Memoriam: Maryam Mirzakhani, 1977-2017, Mathematician, Fields Medalist: Scientist, collaborator, colleague, mentee, expert, mentor, teacher, working mom, wife, daughter, friend, professor, immigrant, math doodler, woman in science
Constanza Rojas-Molina
https://ragebb.wordpress.com/2017/07/16/506/

Bézier Stabwerke

Jul 28, 2017 53:00

Description:

Arne Rick (@Couchsofa) war schon ein häufiger, aber ungenannter Gast im Modellansatz Podcast: Als DJ war er auf den Aufnahmen von der aktuellen und früheren Gulasch-Programmiernächten im Hintergrund zu hören. Außer für Musik hat Arne auch ein großes Faible für Mathematik und Informatik und befasst sich im Zuge seiner von Prof. Marcus Aberle betreuten Bachelorarbeit zum Bauingenieurwesen an der Hochschule Karlsruhe mit Bezierkurven für Stabwerke.

Stabwerke sind Modelle für Strukturen in Bauwerken und eine Lösung für ein System von Stabwerken hilft im konstruktiven Bauingenieurwesen, die Aufbauten in ihren Bemessungen und Anforderungen auszulegen und erforderliche Eigenschaften festzulegen.

Die Darstellung als Stabwerke ist im Sinne eines Fachwerks eng verknüpft mit dem Prinzip von Finite Elementen, da diese in gewissen Anwendungen als Stabwerke und umgekehrt interpretiert werden können. Weiterhin können Stabwerke mit Hilfe von finite Elementen innerhalb der Stäbe genauer bestimmt bzw. verfeinert werden.

Die Betrachtung des Stabwerks beginnt mit der Struktur und den Einwirkungen: Hier ist spielt das Semiprobabilistische Teilsicherheitsbeiwerte-System eine besondere Rolle, da es die möglichen Einwirkungen auf die Bauteile und damit die Gesamtanalyse probabilistisch erfassbar macht.

Man unterscheidet hier nicht mehr so stark zwischen dem Bauen im Bestand, wo viele Nebenbedingungen zwar bekannt, aber die Eigenschaften der verbleibenden Bestandteile unsicher sind, und dem Aufbau eines Neubaus, wo es jeweils für die Bauingenieure gilt, die Vorgaben aus der Architektur konstruktiv, berechnend, planend und organisatorisch unter Berücksichtigung des möglichen Zeit- und finanziellen Rahmens, verfügbarer Materialien, Technik, Mitarbeiter und Bauverfahren sicher umzusetzen.

Speziell in der Betrachtung der Stabwerke können die Fälle der statistischen Über- und Unterbestimmung des Bauwerks auftreten, wo Überbestimmung grundsätzlich zu Verformungen führt, eine Unterbestimmung andererseits kein funktionsfähiges Bauwerk darstellt. Weiterhin ändert jede Anpassung von beispielsweise der Tragfähigkeit eines Bauteils auch gleich zur Änderung des gesamten Stabwerks, da ein stärkerer Stab oft auch mehr wiegt und sich eventuell auch weniger verformt. Außerdem ziehen in einem statisch überbestimmten System die steiferen Elemente die Lasten an. So ist es häufig, eher unintuitiv, von Vorteil Bauteile zu schwächen um eine Lastumlagerung zu erzwingen. Dies führt in der Auslegung oft zu einem iterativen Prozess.

Die Darstellung eines Stabes oder Balkens ist dabei eine Reduzierung der Wirklichkeit auf ein lokal ein-dimensionales Problem, wobei die weiteren Einwirkungen aus der Umgebung durch Querschnittswerte abgebildet werden.

Die Voute ist ein dabei oft auftretendes konstruktives Element in der baulichen Umsetzung eines Tragwerks, die in der Verbindung von Stäben eine biegesteife Ecke bewirkt und in vielen Gebäuden wie beispielsweise dem ZKM oder der Hochschule für Gestaltung in Karlsruhe zu sehen sind.

In der Modellierung der einzelnen Stäbe können verschiedene Ansätze zum Tragen kommen. Ein Standardmodell ist der prismatische Bernoulli Biegestab, das mit Differentialgleichungen beschrieben und allgemein gelöst werden kann. Daraus entstehen Tabellenwerke, die eine Auslegung mit Hilfe dieses Modell ermöglichen, ohne weitere Differentialgleichungen lösen zu müssen. Eine häufige Vereinfachung ist die Reduzierung des Problems auf zwei-dimensionale planare Stabwerke, die in den meissten Anwendungsfällen die relevanten Anforderungen darstellen können.

Die Stäbe in einem Stabwerk können nun unterschiedlich miteinander verbunden werden: Eine Möglichkeit ist hier ein Gelenk, oder in verschiedene Richtungen und Dimension festlegte oder freie Lager, also Festlager oder Loslager zwischen Stäben oder einem Stab und dem Boden. Je nach Wahl der Verbindung entstehen in diesem Punkt eine unterschiedliche Anzahl von Freiheitsgraden. Für die praktische Berechnung werden Lager oft auch verallgemeinert, in dem die Verbindung über eine Feder modelliert wird: Hier haben ideale Loslager eine Federkonstante von 0, während die Federkonstante von idealen Festlagern gegen unendlich geht. Mit allen Werten dazwischen können dann reelle Lager besser beschrieben werden.

In vereinfachter Form führt die Berechnung eines Stabwerks mit idealisierten unbiegbaren Balken mit den Endpunkten der Balken als Variablen und den Verknüpfung der Balken als Gleichungen direkt auf ein relativ einfaches lineares Gleichungssystem. Da sich in Realität alle Balken unter Last merklich verbiegen (es sei denn, sie sind vollkommen überdimensioniert), müssen sie grundsätzlich mit Steifigkeit modelliert werden, um belastbare Ergebnisse zu erhalten.

Aber auch im erweiterten Modell wird der Stab durch eine Matrix linear beschrieben, nur dass hier auch die Last eine Rolle spielt und über das Elastizitätsmodul, Fläche und Trägheitsmoment die Verbiegungen abbilden kann. So ergibt das erweiterte Modell ebenfalls ein lineares Gleichungssystem, nur mit mehr Variablen und Parametern, die das System beschreiben und Angaben zur Verbiegung und Lastverteilung machen.

Nach der gewöhnlichen Berechnung des Stabwerks hat sich Arne nun mit der Frage beschäftigt, ob die Stäbe mit Biegezuständen mit Bezierkurven besonders sinnvoll dargestellt werden können. In der Konstruktion erfahren Bézierkurven eine große Beliebtheit, da sie über Start- und Endpunkt mit zwei Kontrollpunkten sehr intiutiv zu steuern sind. Oft kommen oft Non-Uniform Rational B-Splines (NURBS) zum Einsatz, die als verallgemeinerte Bézier-Splines aufgefasst werden können.

Das Grundproblem besteht darin, dass die Stäbe im erweiterten Modell durch Einführung der Biegezustände und Elastizität weder ihre Länge behalten, noch eine eindeutige Ausrichtung durch unterschiedliche Winkel an den Enden erhalten. Einen solchen Widerspruch versucht man bei Finiten Elementen entweder durch eine feinere Diskretisierung und damit durch eine Abbildung durch Geradenstücke oder durch eine Abbildung mit Polynomen höherer Ordnung zu ermöglichen und das Problem auf dem verfeinerten Modell zu lösen. Der dritte Ansatz ist hier, die Ergebnisse durch die in der Konstruktion bewährte Darstellung über Bezier-Kurven qualitativ anzunähern, um die Modellerfahrung aus der Konstruktion in der Darstellung der Lösung zu nutzen.

Die Umsetzung erfolgt in Python, das mit den Bibliotheken NumPy und SciPy eine Vielzahl hilfreicher und effizienter Funktionen besitzt.


Literatur und weiterführende Informationen A. Rick: Structurana, Python, 2017. Friedrich U. Mathiak: Die Methode der finiten Elemente (FEM), Einführung und Grundlagen, Skript, Hochschule Neubrandenburg, 2010. Ch. Zhang, E. Perras: Geometrische Nichtlinearität, Steifigkeitsmatrix und Lastvektor, Vorlesung Baustatik (Master), Lehrstuhl Baustatik, Universität Siegen, 2015.
Podcasts M. Bischoff: Baustatik und -dynamik, Gespräche mit Markus Völter & Nora Ludewig im omega tau Podcast, Episode 029, 2010. M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick: A Hackers Approach To Building Electric Guitars, Vortrag auf der GPN15, Karlsruhe, 2015.
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Mikroökonomik

Jul 14, 2017 38:17

Description:

Ein Gespräch mit Oliver Beige über dynamische Prozesse in der Mikroökonomik: Über Einfluss, Ideenpropagation und Nachbarschaftseffekte.

Oliver Beige und Gudrun Thäter haben sich online über die große gemeinsame Schnittmenge im Musikgeschmack gefunden. Obwohl Oliver in Berlin lebt und Gudrun in Karlsruhe ist es schon vorgekommen, dass sie im gleichen Konzert waren ohne das rechtzeitig zu bemerken, weil sie sich persönlich noch nicht kannten. Im vergangenen Jahr fand Gudrun dann interessante Überlegungen zur aktuellen Anwendbarkeit der Ideen und Modelle von Malthus, die Oliver veröffentlicht hatte. Diese erwiesen sich als spannende Lektüre für die Studierenden der Modellbildungsvorlesung, die Gudrun gerade hielt. Damit war der Plan geboren, dass man sich nicht nur unbedingt einmal persönlich kennenlernen müsste, sondern bei nächster Gelegenheit auch für den Podcast einmal unterhalten sollte. Diese Gelegenheit bot sich im Juli 2017 nach einem Freiluftkonzert in der Kulturbrauerei in Berlin.

Oliver ist Ökonom. Er hat 1993 in Karlsruhe sein Diplom in Wirtschaftsingenieurwesen erworben und sich anschließend in den Staaten umgesehen. Dort hat er 1997 einen Master of Business Administration (University of Illinois) abgeschlossen und sich schließlich im Rahmen seiner Promotion an der UC Berkeley mit der mathematischen Modellierung von Ideenpropagation und Entscheidungsprozessen in Netzwerken beschäftigt. Er hat dabei auch zwei Wellen von Innovation im Silicon Valley hautnah miterlebt.

Was so einfach und grundlegend klingt ist tatsächlich eine sehr schwierig zu beantwortende Frage: Wie beeinflussen sich Mitglieder in einer Gruppe gegenseitig beim Finden von Entscheidungen? Während Soziologen gerne über gruppendynmische Prozesse diskutieren, arbeiten Ökonomen traditionell unter der vereinfachten Annahme, dass Entscheidungen als unabhängig voneinander getroffen werden - gestützt auf einer rein rationalen, isolierten Nutzenkalkulation. Erst seit Kurzem wird diese Annahme in der Ökonmie durch neue Modelle in Frage gestellt.

Was jedoch modellhaft einen Zugang zum dynamischen Entscheidungsprozess in einer Gruppe verschaffen kann - in dem natürlich ganz viel Rückkopplung eingebaut werden muss - sind neuronale Netze - z.B. die Boltzmann-Maschine. Diese hatte Oliver in Karlsruhe kennen- und schätzen gelernt. Sie bilden ein stochastisches Feedback-Netzwerk, in dem man auch untersuchen kann, wie man zu einem Equilibrium kommen kann.

Wie läuft denn so eine kollektive Entscheidung ab? Vorab hat jede/r in der Gruppe Präferenz - z.B. für einen bestimmten Film, den er oder sie gern in Begleitung anderer in der Gruppe sehen würde. Darüber wird gesprochen und schließlich teilt sich die Gruppe auf in Untergruppen, die im Kino den gleichen Film sehen. Im Gespräch werden die Präferenzen der anderen jeweils gewichtet in die eigene Entscheidung einfließen. Mathematisch wird das ausgedrückt in einer Nutzenfunktion, deren Wert maximiert wird. In der evolutionären Spieltheorie kann dieses dann als ein stochastischer Prozess modelliert werden, der mittels einer Potentialfunktion die Meinungsbildung der Gruppe als Equilibriumspfad darstellt.

Von einem mehr abstrakten Level stellen sich auch die Fragen an ein so gewonnenes Equilibrium:
a) Sind die Entscheidungen für die Gruppe die besten?
b) Inwieweit beeinflusst die Struktur des sozialen Netzwerkes die Gruppenentscheidung?
c) Kann die Gruppendynamik dazu führen, dass einzelne Mitglieder entgegen ihrer Präferenzen entscheiden (und damit das Axiom der offenbarten Präferenzen verletzen)?

Zur Darstellung dieser Prozesse wandelte Oliver den traditionellen Entscheidungsbaum unter Ausnutzung der Markow-Eigenschaft in einen Entschediungsgraphen um. Dies war damals ein komplett neuer Ansatz und hat sich auch im großen Maßstab bis heute nicht durchgesetzt. Neu an der Arbeit war auch, dass zum ersten Mal im Zusammenhang der Netzwerkeffekte die Struktur des Netzwerkes betrachtet wurde. In der ursprünglichen Konzeption in der Arbeit von Michael Katz und Carl Shapiro wurde die Heterogenität des Netzwerkes noch explizit ausgeschlossen.

Wie wichtig Nachbarschaftseffekte sind, weiß man in der Innovationsökonomik aber schon seit Zvi Griliches die schrittweise Verbreitung des ertragreicheren Hybridmaises in den USA über Mundpropaganda erforscht hatte. Diese Form der Ideenpropagation ist auch ein wichtiger Baustein in Jared Diamonds "Guns, Germs, & Steel" (das den Pulitzerpreis gewann).

Großen Einfluss auf Olivers Arbeit haben die Arbeiten des Pioniers der Spieltheorie Thomas Schelling (Nobelpreisträger 2005), der so wichtige Begriffe wie Nachbarschaftseffekte, kritische Masse und das Konzept des Tipping points einführte.

Heute setzt Oliver seine Kenntnisse über dynamische Prozesse bei Entscheidungen über Investitionen in Startups, insbesondere im Bereich der verknüpften Mobilität und der Verbreitung neuer Technologien wie z.B. Blockchain, ein.


Literatur und weitere Informationen J. Diamond: Guns, Germs, and Steel. W.W. Norton, 1997. Thomas Schelling, Nobelist and game theory pioneer, 95 . Nachruf, Harvard Gazette 14.12.2016. O. Beige: Resurrecting Malthus and Ricardo Medium, 2016. O. Beige: Essays on Preference and Influence Dissertation an der University of California, Berkeley, 2006. J. H. Conway: Game of life Podcasts P. Stursberg: Social Choice, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Caspari: Perfekte Gleichgewichte, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 61, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. K. Cindric: Kaufverhalten, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 45, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. S. Ritterbusch: Digitale Währungssysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Shannon Information

Jul 7, 2017 35:20

Description:

Paul Darscheid gehört der KIT-Hochschulgruppe Engineers without borders an und arbeitet dort konkret in einer Projektgruppe mit, die im ländlichen Raum von Äthopien einen Brunnen bohrt. Um dafür die Nachhaltigkeit des Grundwasserzuflusses zu klären, suchte er den Kontakt zu Uwe Ehret vom Institut für Wasser und Gewässerentwicklung, Bereich Hydrologie. Die spannenden Themen dort fesselten ihn so sehr, dass schließlich auch seine Masterarbeit in Zusammenarbeit mit der Hydrologie entstand.

Zum Spektrum der Fragen der Hydrologen gehören sehr viele unterschiedliche Themen. Man kann summarisch sagen: alles zum Thema Wasserkreislauf, was nicht die Meteorologen beantworten. Konkret geht es z.B. um Niederschlagsabfluss oder Hochwasservorhersage. Eine Frage, die dabei immer wieder auftaucht ist: Wo steckt die meiste Information in den Datensätzen oder den erstellten Modellen? Ein typischer Anwendungsfall schließt beispielsweise aus den Flußpegelstände von unterschiedlichen Flüssen im gleichen System, den Niederschlagmessungen, der Lufttemperatur, Schneehöhen, Bodenfeuchte und Bodenbeschaffenheit auf die Zielgröße - einen konkreten Flusspegelstand. Ein Zusammenhang aller Daten mit der Zielgröße ist klar, aber wie er konkret aussieht ist schwerer zu fassen.

Informationsflüsse quantifizieren in diesem Kontext, welche Messreihen die meisten Informationen über die Zielgröße liefern. Daneben stellt sich auch die Frage: Kann ich einmal gewonnene Konzepte auf andere System übertragen? Kann ich mir dort sparen noch einmal sehr viel zu messen, also mit weniger Daten auskommen?

Am Anfang steht dann die Frage: Was ist Information? Das Konzept für das sich Paul Darscheid entschieden hat ist die Shannon Entropie - ein Maß für Unsicherheit aufgrund der vorliegenden Streuung in den Daten. Tatsächlich besteht ein Zusammenhang zum physikalischen Begriff der Entropie.

Die unterstellte Verteilung eines Datensatzes wird zur Grundlage auf der Größen wie Informationssicherheit und andere abgeleitet werden.

Die Natur als Meßdaten führt auf eine diskrete Verteilung, die evtl. noch vergröbert wird durch Wählen von Stufen (bins) innerhalb derer der Unterschied als nicht relevant angesehen wird. Für eine Beobachtung stellt sich die Frage: Wieviel Information steckt in dieser zusätzlichen Messung? Für sehr wahrscheinliche Ereignisse ist es kaum zusätzliches Wissen, weil es mit vorherigen Vermutungen übereinstimmt. Für ein unwahrscheinliches Ereignis ist die zusätzlich gewonnene Information sehr groß.

Ein Problem ist auch, dass die diskrete Verteilung aus beobachteten Daten gewonnen wird - d.h. man muss eine Schätzung der Verteilung vornehmen. Darauf aufbauend ist es wichtig zu wissen, wie mit Teilmengen des Datensatzes die geschätzte Verteilung approximiert werden kann. Die Unsicherheit hierbei kommt durch Streuung der Daten und durch den vorhandenen Ausschnitt der Realität, der in den Daten eingefangen wird. Wie sehr beeinflusst die Größe des Datensatzes die zutreffende Schätzung der Verteilung?

Dies lässt sich mir der Kullberg-Leibler-Divergenz beschreiben, die die Unsicherheit durch Unwissen über die Verteilung misst. Die Kreuzenthropie addiert die Unsicherheiten der Shannon Entropie und der Kullberg-Leibler Divergenz und ist damit ein Maß für die Gesamtunsicherheit der Schätzung der Verteilung. Hierbei erleichtern die logarithmischen Maße das Rechnen - Produkte werden zu Summen.


Literatur und weiterführende Informationen Brunnenprojekt Jello Adancho: Wir versorgen ein Dorf in Äthiopien mit sauberem Trinkwasser Claude Elwood Shannon: The Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948. Grassberger: Entropy Estimates from Insufficient Samplings, arXiv:physics/0307138, 2003. Thomas M. Cover and Joy A. Thomas. Elements of Information Theory, (Wiley Series in Telecommunications and Signal Processing). Wiley-Interscience, 2006. Vijay P. Singh. Entropy theory and its applications in environmental and water engineering, Wiley-Blackwell, 2013. Janusz Miskiewicz. Improving quality of sample entropy estimation for continuous distribution probability functions, Physica A: Statistical Mechanics and its Applications, 450(C):473–485, 2016. Ilias G. Pechlivanidis, Bethanna Jackson, Hilary Mcmillan, and Hoshin V. Gupta. Robust informational entropy-based descriptors of flow in catchment hydrology, Hydrological Science Journal, 61(1):1–18, 2016.
Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Stokes Operator

Jun 30, 2017 1:14:01

Description:

Peer Kunstmann hat in Kiel Mathematik studiert und 1995 promoviert. In seiner Zeit an der Fakultät für Mathematik in Karlsruhe hat er sich 2002 habilitiert. Er arbeitet als Akademischer Oberrat dauerhaft in der Arbeitsgruppe Angewandte Analysis an unserer Fakultät.

Gudrun hat das Gespräch über ein für beide interessantes Thema - das Stokesproblem - gesucht, weil beide schon über längere Zeit mit unterschiedlichen Methoden zu dieser Gleichung forschen. Das Stokesproblem ist der lineare Anteil der Navier-Stokes Gleichungen, dem klassischen Modell für Strömungen. Sie haben eine gewisse Faszination, da sie einfach genug erscheinen, um sie in ihrer Struktur sehr eingehend verstehen zu können, zeigen aber auch immer wieder, dass man sie nicht unterschätzen darf in ihrer Komplexität.

Peers Interesse wurde zu Beginn seiner Zeit in Karlsruhe durch Matthias Hieber geweckt, der inzwischen an der TU Darmstadt tätig ist. Es zeigte sich seit damals als sehr aktives Forschungsgebiet, weshalb er auch immer wieder neu zu diesen Fragestellungen zurückgekehrt ist.

Mit den klassischen Randbedingungen (konkret, wenn auf dem Rand vorgeschrieben wird, dass die Lösung dort verschwindet = homogene Dirichletbedingung) ist das Stokesproblem auffassbar als Laplaceoperator, der auf Räumen mit divergenzfreien Vektorfeldern agiert. Der Laplaceoperator ist sehr gut verstanden und die Einschränkung auf den abgeschlossenen Unterraum der Vektorfelder mit der Eigenschaft, dass ihre Divergenz den Wert 0 ergibt, lässt sich mit einer Orthogonalprojektion - der Helmholtzprojektion - beschreiben. Im Hilbertraumfall, d.h. wenn die Räume auf einer L^2-Struktur basieren und der Raum deshalb auch ein Skalarprodukt hat, weiß man, dass diese Projektion immer existiert und gute Eigenschaften hat.

Für andere Räume ohne diese Struktur (z.B. L^q-basiert für q nicht 2) hängt die Antwort auf die Frage, für welche q die Projektion existiert, von der Geometrie des Gebietes ab. Für beschränkte Gebiete geht vor allem die Glattheit des Randes ein.

Das spiegelt sich auch auf der Seite des Laplaceproblems, wo die Regularität im Innern des Gebietes relativ elementar gezeigt werden kann, aber in der Nähe des Randes und auf dem Rand gehen in die Argumente direkt die Regularität des Randes ein. Mathematisch wird das Gebiet dabei mit Kreisen überdeckt und mit Hilfe einer sogenannten Zerlegung der Eins anschließend die Lösung für das ganze Gebiet zusammengesetzt. Für die Kreise, die ganz im Innern des Gebietes liegen, wird die Lösung auf den ganzen Raum mit dem Wert 0 fortgesetzt, weil die Behandlung des ganzen Raumes sehr einfach ist. Für Kreise am Rand, wird der Rand lokal glatt gebogen zu einer geraden Linie und (ebenfalls nach Fortsetzung mit 0) ein Halbraum-Problem gelöst. Natürlich liegt es in der Glattheit des Randes, ob das "gerade biegen" nur kleine Fehlerterme erzeugt, die sich "verstecken" lassen oder ob das nicht funktioniert. Für einen Rand, der lokal durch zweimal differenzierbare Funktion dargestellt werden kann, funktioniert diese Technik gut. Für Gebiete, die einen Rand haben, der lokal durch Lipschitzstetige Funktionen darstellbar ist, werden z.B. Randintegraldarstellungen direkt untersucht. Dort existiert die Helmholtzzerlegung für alle q im Intervall 3/2-\vareps < q < 3+\vareps (wobei \vareps>0 vom Gebiet abhängt).

Durch die kleinen Fehlerterme, die in der Technik entstehen, wird es auch nötig, die Gleichung für die Divergenz zu untersuchen, wo keine 0 sondern eine beliebige Funktion (natürlich mit den entsprechenden Regularitätseigenschaften) als rechte Seite erlaubt ist.

Ein Begriff, der eine wichtige Eigenschaft von partiellen Differentialgleichungen beschreibt, ist der der maximalen Regularität. Einfach ausgedrückt heißt das, wenn ich die rechte Seite in einem Raum vorgebe, ist die Lösung genau so viel regulärer, dass nach Anwendung des Differentialoperators das Ergebnis die Regularität der rechten Seite hat. Für das Laplaceproblem
\Delta v=f wäre also die Lösung v für jedes vorgegebene f so, dass \Delta v und f im gleichen Raum sind. Diese Eigenschaft ist z.B. wichtig, wenn man bei nichtlinearen Problemen mit Hilfe von Fixpunktsätzen arbeitet, also z.B. den Operators iterativ anwenden muss. Dann sichert die maximale Regularität, dass man immer im richtigen Raum landet, um den Operator erneut anwenden zu können.

Im Zusammenhang mit der Frage der maximalen Regularität hat sich der H^\infty-Kalkül als sehr nützlich erwiesen.

Ein anderer Zugang wählt statt der Operatorformulierung die schwache Formulierung und arbeitet mit Bilinearformen und Ergebnissen der Funktionalanalysis. Hier kann man vergleichsweise wenig abstrakt und in diesem Sinn elementar auch viel für das Stokes- und das Navier-Stokes Problem zeigen. Es gibt ein vorbildliches Buch von Hermann Sohr dazu.


Literatur und weiterführende Informationen M. Geißert, P.C. Kunstmann: Weak Neumann implies H^\infty for Stokes, Journal Math. Soc. Japan 67 (no. 1), 183-193, 2015. P.C. Kunstmann: Navier-Stokes equations on unbounded domains with rough initial data, Czechoslovak Math. J. 60(135) no. 2, 297–313, 2010. H. Sohr: The Navier-Stokes Equations. An Elementary Functional Analytic Approach Birkhäuser, 2001. M. Cannone: Ondelettes, Paraproduits et Navier-stokes, Diderot Editeur, 1995. G. Thäter, H. Sohr: Imaginary powers of second order differential operators and $L^q$ -Helmholtz decomposition in the infinite cylinder, Mathematische Annalen 311(3):577-602, 1998. P.C. Kunstmann, L. Weis: Maximal L_p-regularity for parabolic equations, Fourier multiplier theorems and H^\infty-calculus, in Functional Analytic Methods for Evolution Equations (eds. M. Iannelli, R. Nagel and S. Piazzera), Springer Lecture Notes 1855, 65-311, 2004. P.C. Kunstmann, L. Weis: New criteria for the H^\infty-calculus and the Stokes operator on bounded Lipschitz domains, Journal of Evolution Equations, March 2017, Volume 17, Issue 1, pp 387-409, 2017. G.P. Galdi: An introduction to the mathematical theory of the Navier-Stokes equations. Vol. I. Linearized steady problems. Springer Tracts in Natural Philosophy, 38. Springer-Verlag, New York, 1994.
Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Automated Binary Analysis

Jun 23, 2017 53:06

Description:

Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Florian Magin (@0x464d) einen Vortrag zu Automated Binary Analysis gehalten und war bereit uns auch im Podcast zu erzählen, wie er mit mathematischen Verfahren Software auf Schwachstellen analysiert.

Florian studiert Informatik an der TU Darmstadt und engagiert sich im CTF-Team Wizards of Dos seiner Universität. Sein Interesse an der Computersicherheit hat ihn auch zur Firma ERNW Research geführt, wo er als Werkstudent in der IT-Sicherheitsforschung tätig ist.

Wie wichtig die Suche nach Schwachstellen und deren Absicherung ist, wurde kürzlich bei der weltweiten Verbreitung der WannaCry/WannaCrypt-Schadsoftware bewusst, die die Aufmerksamkeit von einer anderen und lukrativeren Schadsoftware Adylkuzz ablenkte.

Unter der Binary Analysis versteht man die quellenlose Analyse eines Programms alleine auf den Daten im Maschinencode auf einem Speichermedium. Ein erster Schritt der Analysis ist die Wandlung der Maschinensprache in Mnemonic durch einen Disassembler. Dieser Programmcode kann sich deutlich von einer ursprünglichen Quelltext des Programms unterscheiden, da der Maschinencode erzeugende Compiler eine Vielzahl von Optimierungsmöglichkeiten umsetzt, die den Ablauf und das Abbild des Programms im Maschinencode deutlich verändern können.

Eine Herausforderung stellt sich inzwischen in der Größe der Programme: Während es inzwischen zahlreiche Wettbewerbe gibt, Programme unter extremen Platzbeschränkungen umzusetzen, wächst die Größe klassischer Programme stark an. Ein Maschinensprache-Befehl kann in einem Byte kodiert sein, wie früher etwa hexadezimal C9 auf dem Z80 eine Unterroutine beendet, so können in 4 Bytes Operationen wie eine Addition samt Parameter definiert sein.

Die automatisierte Binäranalyse hat besonders durch die Darpa Cyber Grand Challenge im Jahr 2016 großes Interesse geweckt, wo die Teams autonome Software entwickeln sollten, die für sich alleine den CTF-Wettbewerb bestreitet.

Eine Anwendung solcher automatisierten Programme ist die schnelle Überprüfung von neuer Software auf bekannte oder typische Schwachstellen oder Implementierungsfehler. Eine sehr allgemeine Methode zur Detektion von Sicherheitslücken ist das Fuzzing: Das Open Source Tool AFL modifiziert beispielsweise korrekte Eingabewerte und prüft bei welcher Modifikation das Programm vom zuvor aufgezeichneten Programmablauf abweicht und damit einen Hinweis auf eine mögliche Schwachstelle gibt. Es kann dabei idealerweise auf dem Sourcecode operieren oder auch das Programm in einem Emulator wie QEMU ausführen und analysieren.

Wie schwer aber selbst Source Code zu verstehen sein kann, zeigen die Wettbewerbe International Obfuscated C Code Contest (IOCCC), zu möglichst schwer verständlichen sinnvollen Code, und der Underhanded C Contest, wo ein scheinbar sinnvoller Code für Menschen möglichst unvorhersehbare Zusatzfunktionen aufweist. Ebenso können sehr beliebte Programmiersprachen wie Python sehr unvorhersehbar reagieren, wenn man versehentlich Tabulatoren und Space vermischt, oder gleich die Programmiersprache Whitespace benutzt. Ein weiteres Beispiel ist, dass das Breitenlose Leerzeichen in neuen C++-Standards erlaubt ist, und für den Menschen ununterscheidbaren Code ermöglicht, der unterschiedliche Dinge tut. Aber auch Computer können getäuscht werden, wenn zum Vergleich unsichere Hash-Funktionen genutzt werden, wie jüngst die Shattered-Attacke auf die SHA-1 Hash zeigte.

Eine automatisierte Analysemöglichkeit ist die Control Flow Graph Recovery, die beispielsweise mit IDA , radare2, binary ninja durchgeführt werden kann, um aus einer eindimensionalen Speicherdarstellung zu einem Programmnetz, wo zusammengehörige Programmblöcke miteinander vernetzt werden. Hier kann auch schon sichtbar werden, ob beschränkte Bereiche ohne Authentifikation erreicht werden können. Ein weiteres automatisierbares Verfahren ist die Datenflussanalyse, wo die Verarbeitung und Auswirkungen von Variablen und Daten im Verlauf des Programms analysiert wird. Hier kann der Verlauf von beispielsweise vertraulichen Daten kontrolliert werden.

Bei einer Symbolischen Auswertung wird das Programm abstrakt mit einem Interpreter auf beliebigen variablen Daten bzw. symbolischen Ausdrücken auf allen Pfaden gleichzeitig ausgeführt. Für die Pfaderkundung benötigt man hier eine Strategie zwischen der Breitensuche und Tiefensuche, um die relevanten Teile des Ausführungsgraphen möglichst schnell abzudecken. In der automatisierten Analyse werden dabei offene Sprungmöglichkeiten zu nahezu beliebigen Adressen sehr interessant, da dies einen starken Indikator für einen Angriffsvektor liefern. Mit Return-oriented Programming kann man so bestehenden Code gezielt anspringen und für eigene Zwecke missbrauchen.

Das Open-Source Framework Angr wurde von Forschern des Computer Security Lab at UC Santa Barbara entwickelt und belegte mit Shellphish auf der Darpa-Challenge den dritten Platz. Ein weiteres Open-Source Analyseframework ist Triton, welches man leicht in eigene Projekte einbinden kann. Sehr verbreitet ist auch das Framework S2E der École Polytechnique Fédérale de Lausanne. Ein weiterer Finalist der Cyber Grand Challenge ist das Team CodeJitsu von der University of California at Berkeley, Cyberhaven, and Syracuse. Die Binary Analysis Platform wurde vom Team um Professor David Brumley am Cylab der Carnegie Mellon University entwickelt.

Funktionale Programmiersprachen wie OCAML oder Haskell haben für den Anwendungsfall der symbolischen Auswertung ganz besondere Vorteile. Ebenso werden Programmiersprachen auch auf ihre inherente Unsicherheit im Sinne der Language based security untersucht, sowie fertige Programme versucht auch auf ihre Korrektheit zu verifizieren. Ein Tool, das dies vereinfachen soll ist der Z3 Prover. Hier kommt die Suche nach Sicherheitslücke zur Mathematik: In der formalen Darstellung einer Routine kann das Verhalten als Abbildung aus symbolischen Variablen beschrieben werden, und die Suche nach einer Lösung führt auf die entsprechenden Logik oder Optimierungsverfahren.


Literatur und weiterführende Informationen Florian Magin: Introduction to Automated Binary Analysis, Vortrag auf der GPN17, 2017. Program Analysis reading list D. Brumley: Analysis and Defense of Vulnerabilities in Binary Code, PhD thesis, School of Computer Science Carnegie Mellon University, 2008.
Podcasts M. Musch: Steganographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 57, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.

Bruchzonen

Jun 16, 2017 30:22

Description:

Stephanie Wollherr hat ihr Mathestudium am Karlsruher Institut für Technologie (KIT) absolviert und in unserer Arbeitsgruppe die Abschlussarbeit im Kontext von numerischen Methoden für Wellengleichungen geschrieben. Damals hat Gudrun Thäter sie aus dem Podcastgespräch verabschiedet mit dem Wunsch, in einigen Jahren zu hören, was sie in der Zwischenzeit mathematisches tut. Was wie eine Floskel klingen mag, hat nun zum ersten Mal tatsächlich stattgefunden - ein Gespräch zur Arbeit von Stephanie in der Seismologie an der Ludwig-Maximillians-Universität (LMU) in München.

In der Geophysik an der LMU wurde in den letzten 10 Jahren eine Software zur Wellenausbreitung entwickelt und benutzt, die immer weiter um simulierbare Phänomene ergänzt wird. Stephanie arbeitet an Dynamic Rupture Problemen - also der Simulation der Bruchdynamik als Quelle von Erdbeben. Hier geht es vor allem darum, weitere physikalische Eigenschaften wie z.B. Plastizität (bisher wurde meist vorausgesetzt, dass sich das Gestein elastisch verformt) und neue Reibungsgesetze zu implementieren und in Simulationen auf ihre Wirkung zu testen. Als Basis der Simulationen stehen zum einen Beobachtungen von Erdbeben aus der Vergangenheit zur Verfügung, zum anderen versucht man auch durch Laborexperimente, die aber leider ganz andere Größenskalen als die Realität haben, mögliche Eigenschaften der Bruchdynamik miteinzubeziehen.

Die Daten der Seimsologischen Netzwerke sind zum Teil sogar öffentlich zugänglich. Im Bereich Dynamic Rupture Simulationen kann man eine gewisse Konzentration an Forschungskompetenz in Kalifornien feststellen, weil dort die möglicherweise katastrophalen Auswirkungen von zu erwartenden Erdbeben recht gegenwärtig sind. Das South California Earthquake Center unterstützt zum Beispiel unter anderem Softwares, die diese Art von Problemen simulieren, indem sie synthetische Testprobleme zur Verfügung stellen, die man benutzen kann, um die Ergebnisse seiner Software mit anderen zu vergleichen.

Prinzipiell sind der Simulation von Bruchzonen bei Erdbeben gewissen Grenzen mit traditionellen Methoden gesetzt, da die Stetigkeit verloren geht. Der momentan gewählte Ausweg ist, im vornherein festzulegen, wo die Bruchzone verläuft, zutreffende Reibungsgesetze als Randbedingung zu setzen und mit Discontinuous Galerkin Methoden numerisch zu lösen. Diese unstetig angesetzten Verfahren eignen sich hervorragend, weil sie zwischen den Elementen Sprünge zulassen.

Im Moment liegt der Fokus darauf, schon stattgefundene Erbeben zu simulieren. Leider sind auch hier die Informationen stets unvollständig: zum Beispiel können schon vorhandenen Bruchzonen unterhalb der Oberfläche unentdeckt bleiben und auch das regionale Spannungsfeld ist generell nicht sehr gut bestimmt.

Eine weitere Herausforderung ist, dass die Prozesse an der Verwerfungszone mit sehr hoher Auflösung (bis auf ein paar 100m) gerechnet werden müssen, während der Vergleich mit Werten von Messstationen, die vielleicht einige 100 km entfernt sind einen sehr großen Simulationsbereich erfordert, was schnell zu einer hohen Anzahl an Elementen führt.

Die Rechnungen laufen auf dem SuperMUC Supercomputer am LRZ in Garching und wurden durch eine Kooperation mit der Informatik an der TUM deutlich verbessert.
Discontinuous Galerkin Verfahren haben den großen Vorteil, dass keine großen, globalen Matrizen entstehen, was eine Parallelisierung relativ einfach macht. Auf der anderen Seite kommen durch die element-lokale Kommunikation viele kleinere Matrix-Vektor Produkte vor, die grundlegend optimiert wurden. Ein weiterer Aspekt der Zusammenarbeit mit der TUM beschäftigte sich zum Beispiel mit der zu verteilenden Last, wenn für einige Elemente nur die Wellengleichung und für andere Elemente zusätzlich noch die Bruchdynamik gelöst werden muss.
Auch bei der Input/Output Optimierung konnten die Informatiker willkommene Beiträge leisten. Dieser Beitrag zeigt die Notwendigkeit von interdisziplinärer Zusammenarbeit zwischen Mathematiker, Geophysikern und Informatikern, um Erdbeben und die Dynamik ihrer Quelle besser zu verstehen.

Literatur und weiterführende Informationen A. Heinecke, A. Breuer, S. Rettenberger, M. Bader, A. Gabriel, C. Pelties, X.-K. Liao: Petascale High Order Dynamic Rupture Earthquake Simulations on Heterogeneous Supercomputers, proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis SC14, 3–15, 2014. A.-A. Gabriel, E. H. Madden, T. Ulrich, S. Wollherr: Earthquake scenarios from Sumatra to Iceland - High-resolution simulations of source physics on natural fault systems, Poster, Department of Earth and Environmental Sciences, LMU Munich, Germany. S. Wollherr, A.-A. Gabriel, H. Igel: Realistic Physics for Dynamic Rupture Scenarios: The Example of the 1992 Landers Earthquake, Poster, Department of Earth and Environmental Sciences, LMU Munich. J. S. Hesthaven, T. Warburton: Nodal discontinuous Galerkin methods: algorithms, analysis, and applications, Springer Science & Business Media, 2007. M. Dumbser, M. Käser: An arbitrary high-order discontinuous Galerkin method for elastic waves on unstructured meshes—II. The three-dimensional isotropic case, Geophysical Journal International, 167(1), 319-336, 2006. C. Pelties, J. de la Puente, J.-P. Ampuero, G. B. Brietzke, M. Käser, M: Three-dimensional dynamic rupture simulation with a high-order discontinuous Galerkin method on unstructured tetrahedral meshes, Journal of Geophysical Research, 117(B2), B02309, 2012. A.-A. Gabriel: Physics of dynamic rupture pulses and macroscopic earthquake source properties in elastic and plastic media. Diss. ETH No. 20567, 2013. K. C. Duru, A.-A. Gabriel, H. Igel: A new discontinuous Galerkin spectral element method for elastic waves with physically motivated numerical fluxes, in WAVES17 International Conference on Mathematical and Numerical Aspects of Wave Propagation, 2016. Weingärtner, Mirjam, Alice-Agnes Gabriel, and P. Martin Mai: Dynamic Rupture Earthquake Simulations on complex Fault Zones with SeisSol at the Example of the Husavik-Flatey Fault in Proceedings of the International Workshop on Earthquakes in North Iceland, Husavik, North Iceland, 31 May - 3 June 2016. Gabriel, Alice-Agnes, Jean-Paul Ampuero, Luis A. Dalguer, and P. Martin Mai: Source Properties of Dynamic Rupture Pulses with Off-Fault Plasticity, J. Geophys. Res., 118(8), 4117–4126, 2013. Miloslav Feistauer and Vit Dolejsi: Discontinuous Galerkin Method: Analysis and Applications to compressible flow Springer, 2015. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.

Smart Meter Gateway

Jun 9, 2017 1:24:08

Description:

Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Manuel Lösch einen Vortrag zu Smart Meter Gateways gehalten. Manuel promoviert am FZI Forschungszentrum Informatik in Karlsruhe zu intelligenten Stromnetzen und der Flexibilisierung von elektrischen Lasten, um diese netzdienlich zur Verfügung zu stellen.

Die Einführung des Smart Meter Gateway wurde mit dem Gesetz zur Digitalisierung der Energiewende Ende 2016 in Deutschland beschlossen. Dabei muss man Smart Meter Gateways deutlich von den so genannten Smart Metern oder intelligenten Zählern unterscheiden, die im Fall der elektrischen Energie den Ferraris-Zähler ablösen werden und den Stromverbrauch digital aufzeichnen und verarbeiten können. Die Kombination von intelligenten Zählern und einem Smart Meter Gateway resultiert in einem Intelligenten Messsystem, das Informationen auch an externe Entitäten wie Energielieferanten oder Netzbetreiber versenden kann.

Viele Smart Meter sind mit einer Infrarot-Schnittstelle via Smart Message Language beispielsweise über das Volkszähler-Projekt auslesbar. Neuere Geräte verfügen über eine standardisierte M-Bus-Schnittstelle zur digitalen Datenübertragung zwischen Zähler und z.B. dem Smart Meter Gateway. Grundsätzlich soll die Standardisierung den Kunden das Auslesen erleichtern, damit sie einen besseren Einblick in ihr Energienutzungsverhalten erhalten und Einsparmöglichkeiten erkennen können. Gesetzlich ist sogar vorgeschrieben, dass die Nutzer eines intelligenten Zählers neben dem aktuellen Verbrauchswert sogar einen Einblick bis zwei Jahre in die Vergangenheit erhalten müssen.

Bis zum Jahre 2032 sollen nach dem Gesetz zur Digitalisierung der Energiewende alle Haushalte in Deutschland mit mindestens intelligenten Zählern ausgestattet sein, und je nach Haushaltsgröße auch mit Smart Meter Gateways, die die Kommunikation nach extern ermöglichen. Die Basis des Gesetzes ist das dritte Energiepaket der EU von 2009, die den Mitgliedstaaten vorgab eine Smart-Metering-Infrastruktur einzurichten, wenn eine Kosten-Nutzen-Analyse dieses für sinnvoll erachtet. Daher wurde 2013 eine Kosten-Nutzen-Analyse durchgeführt mit dem Ergebnis, dass ein Teil-Rollout für Deutschland sinnvoll ist. So sollen zwar alle Nutzer intelligente Zähler erhalten, jedoch sind die Gateways nur für größere, sog. netzrelevante, Nutzer vorgeschrieben. Die betrachtete Nutzungsgröße kann sich mit größerer Elektromobilität jedoch stark ändern: Mit einem Elektroauto kann der Verbrauch eines kleinen Haushalts sich vervielfachen und auch die dezentrale Stromerzeugung beispielsweise durch Photovoltaik wird einbezogen.

Mit der Energiewende hat sich die Belastung der Stromnetze stark geändert. Die bisher auf zentrale Versorgung ausgelegte hierarchische Netztopologie kann durch dezentrale Stromerzeugung stark belastet werden. Zur Entlastung der Netze wurden Betreiber von PV-Anlagen verpflichtet, die Einspeisung zu beschränken, entweder fest auf 70 Prozent der Maximalleistung oder über ein Einspeisemanagement gesteuert über Rundsteuertechnik.

Das Smart Meter Gateway arbeitet auf drei Netzbereichen und soll eine sichere Kommunikation zwischen diesen ermöglichen. So gibt es das dem Internet bzw. Wide Area Network zur Kommunikation mit beispielsweise dem Stromanbieter, das Home Area Network für Anwendungen im eigenen Haus und das Local Metrological Network welches die eigentlichen Strom-, Wärme, Gas- und Wasserzähler beinhaltet. Im Home Area Network könnten künftig beispielsweise Geräte wie das Nest Thermostat angeschlossen werden. Dieses kann in den USA heute schon beispielsweise Wärmepumpen oder Klimaanlagen sowohl nach Nutzeranforderung und Netzanforderungen optimiert ansteuern. Dabei werden das Haus oder der Warmwasserspeicher, also bereits vorhandene thermische Energiespeicher, zur Lastverschiebung im "intelligenten" Stromnetz ausgenutzt. Das Konzept dazu ist nicht neu, seit längerer Zeit gibt es bereits den Niederstromtarif, der im Gegensatz zum Hochtarif preiswerter ist und zu Zeiten geringer Netzauslastung zur Verfügung steht. Diese Tarife werden auch heute teilweise noch mit Nachtspeicherheizungen genutzt. Auf Grund energetischer Ineffizienz wurden Speicherheizungen bereits verboten, heute erleben sie aber wieder eine gewisse Renaissance, da sie zur Pufferung überschüssiger Energie herangezogen werden können.

Mit der ermöglichten Kommunikation über verschiedene Netzwerkbereiche und der Steuerbarkeit von außen steigen auch die Sicherheitsanforderungen an ein solches System. Daher sind Smart Meter Gateways in Deutschland in eine Public Key Infrastruktur eingebunden, um einen Missbrauch nach Stand der Technik zu unterbinden. Eine sehr wichtige Rolle wird hier dem Smart Meter Gateway Administrator zugeteilt, der durch digitale Zertifikate die Grundlage für die Authentifizierung der verschiedenen Kommunikationspartner setzt.

Die innere Sicherheit des Smart Meter Gateway wird durch ein vom BSI zertifiziertes Sicherheitsmodul gewährleistet, das die erforderliche Kryptographie zur sicheren Kommunikation zur Verfügung stellt. Auch in manchen Smartphones werden zusätzliche Chips zur Absicherung verwendet. Auch wenn es zumindest schon einen Anbieter eines zertifizierten Sicherheitsmoduls gibt, haben sich zum Zeitpunkt der Aufnahme zwar acht Gateways zur Zertifizierung beworben, doch hat noch keines die Zertifizierung abgeschlossen, obwohl die Gesetzgeber in diesem Jahr den Start des Rollouts intelligenter Messsysteme geplant haben.

Die Wahrung der Privatsphäre ist ein wichtiges Thema bei der Weitergabe von Stromverbrauchsdaten: So konnte mit Hilfe der Messdaten eines Smart Meters bereits erfolgreich bestimmt werden, welcher Film auf einem Fernseher lief. Auf der anderen Seite ist die zeitnahe und regelmäßige Weitergabe von Stromverbrauchsdaten eine sehr wichtige Informationsquelle für die Bewirtschaftung der Bilanzkreise, die wesentlich auf der Erstellung von Prognosen basiert und grundlegend für die Stabilität unseres Stromnetzes ist. Da bei kleineren Verbrauchern noch keine viertelstündlichen Verbrauchsmeldungen erzeugt werden, kommen dort standardisierte Lastprofile zum Einsatz, um den typischen Stromverbrauch von Haushalten und Gewerbebetrieben zu modellieren. Durch die steigende Elektromobilität kann sich in Zukunft durch häusliches Laden der Verbrauch eines Haushalts jedoch deutlich von Standardlastprofilen unterscheiden. Andererseits ergibt der Ladeprozess einen neuen Freiheitsgrad, um Lasten zu verschieben und gerade dann Energie zu verbrauchen, wenn diese im Überfluss vorhanden ist.

Zur Koordination vieler kleiner dezentraler Energieerzeuger wurde das Konzept der virtuellen Kraftwerke ins Leben gerufen, mit dem viele kleine Kraftwerke als gemeinsame Institution an Strom- und Regelleistungsmärkten aktiv teilnehmen können. Wenn der tatsächliche Verbrauch sich von den Prognosen stark unterscheidet, so fluktuieren die Preise an der Strombörse stark, es kann an der EPEX am Spotmarkt bei starkem Überangebot sogar zu negativen Strompreisen kommen, da große Kraftwerke sich nur beschränkt regeln lassen. Diese Großhandelspreise können aber aktuell nur zu einem Teil an Endkunden weitergegeben werden, da der tatsächliche Energiepreis nur einen Teil des Endpreises ausmacht; zusätzlich fallen fixe Netzentgelte und Umlagen an.

Die Steuerung dezentraler Stromerzeuger und variabler Stromverbraucher (heute v.a. Wärmepumpen und Speicherheizungen) wie oft auch die Straßenbeleuchtung erfolgt an vielen Orten und auch in Karlsruhe durch Rundsteuertechnik, welche Signale im hörbaren Frequenzbereich von 110-2000 Hz über das vorhandene Stromnetz überträgt. Um hier ein Netzsegment zu steuern sind Sendeleistungen teilweise bis im hohen Kilowattbereich erforderlich. Die Rundsteuertechnik ist an vielen Orten auch durch Funkrundsteuertechnik mit Signalen auf Langwelle oder Ultrakurzwelle realisiert. Langwellensignale wie DCF77 können mit Soundkarten empfangen und auch können Langwellen per Audioausgang gesendet werden. Zur GPN17 wurde auch der Gulasch Push Notifier alias GPN-Badge entwickelt, der ebenso zentral die Teilnehmer des Events zum Gulasch rufen sollte.

Das Forschungsgebiet von Manuel behandelt die Erschließung von Flexibilität in der Erzeugung und dem Verbrauch elektrischer Energie, mit dem Ziel diese netzdienlich und gewinnbringend in sogenannten "intelligenten Stromnetzen" zur Verfügung zu stellen. Dies untersucht er aktuell im Kontext größerer Liegenschaften, welche als große Endverbraucher oft auch vor Ort über eigene dezentrale Stromerzeuger verfügen. Am FZI House of Living Labs setzt er die Forschung praxisnah um: Das Energiemanagementsystem im FZI House of Living Labs ermöglicht beispielsweise die automatisierte Steuerung der Klimaanlage passend zu Meetings und dem aktuellen Netzzustand.


Literatur und weiterführende Informationen M. Lösch: Digitalisierte Stromnetze und Smart Meter in Deutschland, Ein Überblick, Vortrag auf der GPN17, 2017. B. Becker, F. Kern, M. Lösch, I. Mauser, H. Schmeck: Building Energy Management in the FZI House of Living Labs, In Proceedings of the D-A-CH Conference on Energy Informatics (pp. 95-112). Springer International Publishing, 2015. M. Lösch, D. Hufnagel, S. Steuer, T. Faßnacht, H. Schmeck: Demand Side Management in Smart Buildings by Intelligent Scheduling of Heat Pumps, In Proceedings of the IEEE International Conference on Intelligent Energy and Power Systems (IEPS), 2014. T. Fassnacht, M. Lösch, A. Wagner: Simulation Study of a Heuristic Predictive Optimization Scheme for Grid-reactive Heat Pump Operation, In Proceedings of the REHVA Annual Conference, 2015. U. Greveler, P. Glösekötterz, B. Justusy, D. Loehr: Multimedia content identification through smart meter power usage profiles, In Proceedings of the International Conference on Information and Knowledge Engineering (IKE). The Steering Committee of The World Congress in Computer Science, Computer Engineering and Applied Computing, 2012.
Podcasts M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. S. Ritterbusch: Digitale Währungssysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. Müller-Quade, A. Rupp, B. Löwe, K. Bao: Kryptographie und Privatssphäre im Stromnetz, Feature von Jan Rähm im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, Folge 6, 2017. S. Seier, T. Alexandrin: Mieterstrom-Krimi, Abgrund oder Cliffhanger? Episode 16 im Blindstrom Podcast, 2017. M. Dalheimer, P. Hecko: Der Strom, Folge 5 im Pietcast, 2014.
GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017

Cerebral Fluid Flow

May 26, 2017 35:37

Description:

This is one of two conversations which Gudrun Thäter recorded alongside the conference Women in PDEs which took place at our faculty in Karlsruhe on 27-28 April 2017. Marie Elisabeth Rognes was one of the seven invited speakers.

Marie is Chief Research Scientist at the Norwegian research laboratory Simula near Oslo. She is Head of department for Biomedical Computing there. Marie got her university education with a focus on Applied Mathematics, Mechanics and Numerical Physics as well as her PhD in Applied mathematics at the Centre for Mathematics for Applications in the Department of Mathematics at the University of Oslo.

Her work is devoted to providing robust methods to solve Partial Differential Equations (PDEs) for diverse applications. On the one hand this means that from the mathematical side she works on numerical analysis, optimal control, robust Finite Element software as well as Uncertainty quantification while on the other hand she is very much interested in the modeling with the help of PDEs and in particular Mathematical models of physiological processes. These models are useful to answer What if type-questions much more easily than with the help of laboratory experiments.

In our conversation we discussed one of the many applications - Cerebral fluid flow, i.e. fluid flow in the context of the human brain.

Medical doctors and biologists know that the soft matter cells of the human brain are filled with fluid. Also the space between the cells contains the water-like cerebrospinal fluid. It provides a bath for human brain. The brain expands and contracts with each heartbeat and appoximately 1 ml of fluid is interchanged between brain and spinal area. What the specialists do not know is: Is there a circulation of fluid? This is especially interesting since there is no traditional lymphatic system to transport away the biological waste of the brain (this process is at work everywhere else in our body). So how does the brain get rid of its litter? There are several hyotheses:

Diffusion processes, Fast flow (and transport) along the space near blood vessel, Convection.

The aim of Marie's work is to numerically test these (and other) hypotheses. Basic testing starts on very idalised geometries. For the overall picture one useful simplified geometry is the annulus i.e. a region bounded by two concentric circles. For the microlevel-look a small cube can be the chosen geometry.

As material law the flow in a porous medium which is based on Darcy flow is the starting point - maybe taking into account the coupling with an elastic behaviour on the boundary.

The difficult non-mathematical questions which have to be answered are:

How to use clinical data for estabilishing and testing models How to prescribe the forces

In the near future she hopes to better understand the multiscale character of the processes. Here especially for embedding 1d- into 3d-geometry there is almost no theory available.

For the project Marie has been awarded a FRIPRO Young Research Talents Grant of the Research Council of Norway (3 years - starting April 2016) and the very prestegious ERC Starting Grant (5 years starting - 2017).

References M.E. Rognes: Mathematics that cures us.TEDxOslo 3 May 2017 Young academy of Norway ERC Starting Grant: Mathematical and computational foundations for modeling cerebral fluid flow 5 years P.E. Farrell e.a.: Dolfin adjoint (Open source software project) FEniCS computing platform for PDEs (Open source software project) Wikipedia on FEniCS Collection of relevant literature implemented in FEniCS

Convolution Quadrature

May 19, 2017 30:32

Description:

This is one of two conversations which Gudrun Thäter recorded alongside the conference Women in PDEs which took place at our Department in Karlsruhe on 27-28 April 2017.

Maria Lopez-Fernandez from the University La Sapienza in Rome was one of the seven invited speakers. She got her university degree at the University of Valladolid in Spain and worked as an academic researcher in Madrid and at the University of Zürich.

Her field of research is numerical analyis and in particular the robust and efficient approximation of convolutions. The conversation is mainly focussed on its applications to wave scattering problems. The important questions for the numerical tools are: Consistency, stability and convergence analysis. The methods proposed by Maria are Convolution Quadrature type methods for the time discretization coupled with the boundary integral methods for the spatial discretization. Convolution Quadrature methods are based on Laplace transformation and numerical integration. They were initially mostly developed for parabolic problems and are now adapted to serve in the context of (hyperbolic) wave equations. Convolution quadrature methods introduce artificial dissipation in the computation, which stabilzes the numerics. However it would be physically more meaningful to work instead with schemes which conserve mass.

She is mainly interested in

fast algorithms with reduced memory requirements and adaptivity in time and space.

The motivational example for her talk was the observation of severe acoustic problems inside a new building at the University of Zürich. Any conversation in the atrium made a lot of noise and if someone was speaking loud it was hard to understand by the others. An improvement was provided by specialised engineers who installed absorbing panels. From the mathematical point of view this is an nice application of the modelling and numerics of wave scattering problems. Of course, it would make a lot of sense to simulate the acoustic situation for such spaces before building them - if stable fast software for the distribution of acoustic pressure or the transport of signals was available.

The mathematical challenges are high computational costs, high storage requirements and and stability problems. Due to the nonlocal nature of the equations it is also really hard to make the calculations in parallel to run faster. In addition time-adaptive methods for these types of problems were missing completely in the mathematical literature. In creating them one has to control the numerical errors with the help of a priori and a posteriori estimates which due to Maria's and others work during the last years is in principle known now but still very complicated. Also one easily runs into stability problems when changing the time step size.

The acoustic pressure distribution for the new building in Zürich has been sucessfully simulated by co-workers in Zürich and Graz by using these results together with knowledge about the sound-source and deriving heuristic measures from that in order to find a sequence of time steps which keeps the problem stable and adapt to the computations effectively.

There is a lot of hope to improve the performance of these tools by representing the required boundary element matrices by approximations with much sparser matrices.

References M. López Fernández, S. Sauter: Generalized Convolution Quadrature with Variable Time Stepping. Part II: Algorithm and Numerical Results. Applied Numerical Mathematics, 94, pp. 88 - 105 (2015) M. López Fernández, S. Sauter: Generalized Convolution Quadrature based on Runge-Kutta Methods. Numerische Mathematik, 133 (4), pp. 734 - 779 (2016) S. Sauter, M. Schanz: Convolution Quadrature for the Wave Equation with Impedance Boundary Conditions. Journal of Computational Physics, Vol 334, pp. 442 - 459 (2017)


Podcasts T. Arens: Lärmschutz, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 16, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. F. Sayas: Acoustic Scattering, Conversation with G. Thäter in the Modellansatz Podcast, Episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2016.

Augmented Reality in der Chirurgie

May 12, 2017 38:24

Description:

Die Arbeit von Staffan Ronnas in der Münchner Firma Brainlab befasst sich mit der Anwendung von Augmented Reality (AR) in der Chirurgie - vor allem in der Neurochirurgie. Ziel ist es, virtuelle, präoperativen Daten mit der "Realität" in Form von live Video auf dem chirurgischen Mikroskop so zu verblenden, dass der Chirurg vor und während der OP einen Nutzen davon hat.

Staffan stammt aus Schweden und hat in Karlsruhe in Mathematik in der Arbeitsgruppe promoviert in der auch Gudrun Thäter und Sebastian Ritterbusch tätig waren. Nach seiner Verteidigung 2012 hat er einige Zeit als Postdoc in Karlsruhe und Heidelberg gearbeitet, bevor er zur Firma COMSOL in Stockholm ging. Seit September 2015 wohnt er in München und bringt seine Fähigkeiten als Softwareingenieur bei Brainlab ein.

Welche Rolle spielt denn AR zur Zeit in der Chirurgie? Digitale Daten sind schon weit verbreitet in der Medizintechnik und insbesondere in der Chirurgie. Dabei handelt es sich z.B. um CT- oder MR-Bilder, aus denen man virtuelle Objekte durch Segmentierung gewinnen kann. Diese Daten können vor oder während der Behandlung (prä-/intraoperativ) entstehen und werden zur Planung der OP oder zur Navigation während des Eingriffs verwendet. Zum größten Teil werden sie klassisch auf Bildschirmen dargestellt und zur Interaktion dienen eine Maus oder ein Touchscreen oder auch Instrumente, die über Infrarotkameras getracked werden.

Speziell in der Neurochirurgie kommen große Mikroskope zum Einsatz, die auch Video aufnehmen können. Das Ziel von Staffans Arbeit ist dabei präoperative virtuelle Daten mit Videodaten zu verblenden um eine erweiterte Darstellung zu zeigen, mit der der Chirurg während der OP navigieren kann. Zu dieser Zweck werden nützliche Informationen wie die aktuelle Position, das Zielobjekt und dazwischen liegende Strukturen im Video dargestellt.

Um ein solches System umsetzen zu können, werden Methoden aus vielen verschiedenen Bereichen der angewandten Mathematik benötigt, wie z.B. Bildbehandlung, geometrische Modellierung, 3D Grafik und Computer Vision. Themen wie maschinelles Lernen und Robotik spielen auch eine zunehmend wichtige Rolle.

Eine grundlegende Fragestellung mit der sich Staffan viel beschäftigt hat, ist die Modellierung der Optik chirurgischer Mikroskope mit variablem Fokus und Zoom. Ein genaues Modell wird benötigt, um die Lage und Größe der virtuellen Daten bei der Verblendung mit dem Videobild bestimmen zu können. Als grundlegendes Kameramodell dient das Pinholemodell, d.h. eine perspektivische Projektion von Punkten gemessen in einem 3D Koordinatensystem auf die planare Bildebene. Extrinsische Parameter sind dabei die Lage und Orientierung der Kamera im Raum (die Richtung der "optische Achse"). Die intrinsischen Parameter sind abhängig von der Optik z.B. die Brennweite (Skalierung von mm auf pixel-Maß) und verschiedene Arten von Verzerrung.

Die Parameter des nichtlinearen Kameramodells werden bestimmt durch Minimierung der Reprojektionsfehler in Aufnahmen von einer bekannten Geometrie. Typischerweise wird der Levenberg-Marquardt Algorithmus benutzt um das Optimierungsproblem zu lösen.

Es gibt aber mehrere Schwierigkeiten:

Der Modell ist nicht konvex wodurch lokale Minima möglich sind; Die Berechnung der Parameter wird vom Messfehler beeinflusst; Die begrenzte Schärfentiefe und großer Arbeitsabstand erschweren die Messungen;

Als Lösung bietet es sich an ein einfacheres Modell zu verwenden und dadurch zu vermeiden, dass redundante Parameter geändert werden. Allerdings muss man darauf achten, dass das Ergebnis immer noch ausreichend Genauigkeit bietet.


Literatur und weiterführende Informationen Z. Yaniv, C. A. Linte: Applications of Augmented Reality in the Operating Room (Preprint), in Fundamentals of Wearable Computers and Augmented Reality, Second Edition, ch. 19, CRC Press, 2015. I. Cabrilo, P. Bijlenga, K. Schaller: Augmented reality in the surgery of cerebral aneurysms: a technical report, Operative Neurosurgery, 10.2: 252-261, 2014. Z. Zhang: A Flexible New Technique for Camera Calibration, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, pp. 1330–1334, 2000. Übersicht Brainlab Mikroskopintegration
Podcasts Y. Liang: Bewegte Computertomographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 6, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. I. Waltschläger: Windsimulation, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. D. Breitenbach, U. Gebhardt, S. Gaedtke: Raketen, CT-MRT-PET-etc, Widerstände, Proton Podcast, Folge 17, 2017. F. Rau: Augmented Reality Gaming, Gespräch mit T. Nowak im Kulturkapital Podcast, Folge 28, 2017.

Bakterienkommunikation

May 5, 2017 30:00

Description:

Diese Folge ist eines von drei Gesprächen mit Mathematikerinnen und Mathematikern an der TU München in Garching bei München, die Gudrun am 10. April 2017 dort geführt hat.

Christina Kuttler enwickelt und untersucht mathematische Modelle, die helfen, Bakterien-Kommunikation besser zu verstehen.

Ausgangspunkt des Forschungsthemas war die Beobachtung, dass bestimmte Meeresbakterien (nämlich Aliivibrio fischeri) im Leuchtorgan des Tintenfisches Euprymna scolopes Licht aussenden können, sobald genug von ihnen vorhanden sind. Natürlich stellte sich die Frage: Wie stellen sie fest, dass sich leuchten lohnt, d.h. dass genug Bakterien ihrer Art versammelt sind?

Biologie musste also durch gezielte Experimente und allgemeine Beobachtungen klären: Was und wie kommunizieren diese und andere Bakterien? Die typischen Antwort im Umfeld der Arbeitsgruppe von Christina Kuttler sind: Bakterien eruieren über chemische Signalstoffe, die in den Zellen produziert und ausgetauscht werden, ob in örtlicher Nähe noch mehr Bakterien ihrer Art vorhanden sind und in welcher Konzentration. Dafür haben sie Rezeptoren in den Zellen, die die Signalstoffkonzentration messen.

Auf die gleiche Weise können sich auch bestimmte Krankheitserreger zunächst vermehren ohne den Wirt anzugreifen. Erst wenn eine gewisse Schwelle überschritten wird, ändern sie ihr Verhalten und beginnen ihre Wirkung zu entfalten.

Die Änderung des Verhaltens unter den Bedingungen "ich bin fast allein" bzw. "wir sind viele" erfolgt über Genregulationssysteme, d.h. konkrete Informationen auf den Genen werden aktiviert oder ausgeschaltet - je nachdem welche Signalstoffkonzentration gemessen wird.

In diese Prozesse kann man durch Marker in experimentellen Untersuchungen eingreifen und dadurch auch messen. Die dabei gewonnenen Daten werden in Modelle gegossen, die so komplex sind, dass man sich dafür Mathematiker und Mathematikerinnen ins Team holt. Meist werden große Systeme von Differentialgleichungen aufgestellt und durch Untersuchung der Lösungseigenschaften der Gleichungen kann man überprüfen, welche Experimente noch weiter Aufschluss darüber geben können, ob das System ein gutes Modell für das Verhalten der Bakterien ist. Hierzu sind einerseits qualitative Untersuchungen der Gleichungen hilfreich, die z.B. Bereiche finden, in denen bestimmte Werte steigen oder fallen (und wie schnell, d.h. in welcher Ordnung) oder wo Stabilitätseigenschaften vorliegen. Es kommt dabei z.B. vor, dass Stabilitätsbereiche mathematisch detektiert werden, die erst später durch Experimente nachgestellt und dadurch verifiziert werden.

Andererseits erfolgt eine quantitative Untersuchung, d.h. die Systeme von Differentialgleichungen werden numerisch (näherungsweise) gelöst. Es ist möglich auf diese Weise auch für verschiedene dem Prozess inhärente Zeitskalen die Modelle zu simulieren, denn dafür stehen gute und gut verstandene numerische Verfahren zur Verfügung.

Beide Zugänge führen zu Ergebnissen, die als gemeinsame Erfolge von Mathematik und Biologie veröffentlicht werden. Im Wesentlichen konzentrieren sich die Forschergruppen darauf, Prinzipien zu verstehen, die hinter der beobachteten Bakterien-Kommunikation stehen.

In der bisherigen Arbeit und in naher Zukunft werden noch kaum stochastische Effekte in Modellen berücksichtigt und in der Regel sind nur gemittelte Werte im Modell dargestellt. Im Moment wird der Zugang auf die Untersuchung von Bakteriophagen ausgedehnt und könnte dazu führen, dass man Alternativen zu klassischen Antibiotika entwickeln kann.

Prof. Christina Kuttler hat seit 2008 die Professur für Mathematik in den Lebenswissenschaften an der TUM inne. Sie hat in Tübingen Mathematik, Physik & Informatik studiert und dort auch promoviert. Sie wechselte 2004 nach München - zunächst als Postdoc im Institut für Biomathematik und Biometrie am dortigen Helmholtzzentrum.

Literatur und weiterführende Informationen B.A. Hense, C. Kuttler e.a.: Efficiency Sensing - was messen Autoinduktoren wirklich? Biospektrum 01.08 (18-21), 2008. Stephen J. Hagen (Ed.): The Physical Basis of Bacterial Quorum Communication, Springer Verlag, 2015. P. Kumberger, C. Kuttler, P. Czuppon, B.A. Hense: Multiple regulation mechanisms of bacterial quorum sensing, Biomath 5, 1607291 (open access), 2016. L. Tetsch: Tintenfisch mit Taschenlampe, Spektrum Magazin, 2016. Podcasts L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. K. Leinweber, M. von Toor: Betreutes Überleben, KonScience Podcast, Folge 30, 2015.

Wissenschaftskommunikation

Apr 28, 2017 1:00:44

Description:

Der March for Science am 22. April 2017 hat auch in Deutschland ein großes Echo gefunden. Es gab Veranstaltungen in Berlin, Bonn, Dresden, Frankfurt/Main, Freiburg/i.Br., Göttingen, Greifswald, Hamburg, Heidelberg, Helgoland, Jena, Kassel, Koblenz, Leipzig, München, Rostock, Stuttgart, Trier und Tübingen mit schließlich über 37.000 Teilnehmern.

Unter dem Eindruck der Vorbereitungen auf den 22. April haben sich Gudrun Thäter und Annette Leßmöllmann zum Gespräch getroffen. Sie teilen das Interesse an den Fragen:

Welche Rolle hat Wissenschaft in unserer Gesellschaft? Welche Rolle sollte sie haben? Wie nimmt Wissenschaftskommunikation darauf Einfluß?

Dabei haben sie unterschiedliche Rollen und Erfahrungen, die im Gespräch zu einer persönlichen Einschätzung des Status quo und der Wünsche für die Zukunft zusammengeführt werden. Annette Leßmöllmann leitet die Abteilung Wissenschaftskommunikation im Institut für Germanistik des KIT, das heißt sie forscht und lehrt im Bereich Wissenschaftskommunikation. Ihr Interesse lässt sich kurz fassen als: Was nehmen die Konsumenten wissenschaftlicher Botschaften für ihren Alltag mit?

Drei Gedanken stehen am Anfang des Gespräches:

Die Rolle von Wissenschaft ist auch eine ökonomische Frage: Wer stellt Geld für Wissenschaft bereit und mit welchen Zielen? Was ist wissenschaftliches Erkennen und was ist ihr Vorteil als Sicht der Welt? Demokratie und Pressefreiheit sind nicht selbstverständlich.

Tatsächlich wird die Arbeit mit Studierenden immer politischer, was sich erst kürzlich am großen Interesse am Vortrag von Michael Blume zum Themenfeld "Wahrheit" zeigte.

Am Beispiel der Mathematik zeigen sich konträre Eintwicklungen. Einerseits durchlaufen alle in Deutschland eine mathematische Schulbildung von 10-13 Jahren und setzen das häufig in Ausbildung oder Studium fort. Gesellschaftlich akzeptiert ist jedoch die Aussage: "Das brauche ich später sowieso nicht..." Was noch nie zutreffend war, aber mit der aktuellen Entwicklung in Alltag und Technik immer unwahrer wird, denn

fast jede/r muss mit Wahrscheinlichkeiten hantieren und Daten deuten, Kausalität von Korrelation unterscheiden, Entscheidungen beurteilen oder treffen, die auf Computer-Simulationen beruhen.

Man bräuchte dafür auch psychologische Forschung, z.B. um den Umgang von Menschen mit Risikobotschaften besser zu verstehen. Denn wir treffen häufig sehr wichtige Entscheidungen unter Zeitdruck und mit nur teilweise zugänglichen Informationen. Dem trägt inzwischen auch ein von der DFG finanziertes Schwerpunktprogramm Rationalität Rechnung.

Durchdringung der Berufswelt mit Hochtechnologie und Computern

führt zu Monitorrückseitenberatung bei Banken/Reisebüros etc. inkl. dem Effekt "the computer says no". Damit wird Erfahrungs- und IInsiderwissen der klassischen Berufsausbildung in Deutschland entwertet. Anweisungen von Spezialisten sind schwerer durchschaubar für untergebene. Dies führt zu latenten Vorbehalten gegen gebildete Leute ("die wissen ja nichts sondern sind nur eingebildet") und einer gefühlten Benachteiligung. Gleichzeitig erfolgt eine versteckte Umverteilung des Vermögens von unten nach oben und damit eine echte Benachteiligung der Mehrheit. Technische und soziale Kompetenz greifen zusammen in der Nutzung moderner Medien. Es ändern sich auch die Formen von Gesprächen hierdurch. Wissenschaftskommunikation muss man deshalb auch auf die Art der Kommunikation der jungen Leute abstimmen.

Man könnte diese Entwicklung doch auch dazu nutzen, um Beratung zu verbessern! Dazu bräuchten Mitarbeiter aber auch Spielraum und eine andere kommunikative Ausbildung. Es ändert auch die Arbeit im Journalismus, denn Nachrichten sind inzwischen überall verfügbar, aber das Einordnen und Wichten wird zum eigentlichen Spezialwissen. Eine wichtige Rolle kommt Modellen zu. Sie ermöglichen die Einordnung der Geschehnisse in der Welt in einen persönlichen Zusammenhang, d.h. genügend vereinfacht, um sie mit Sinn zu füllen und darüber kommunizieren zu können.

Die Schulbildung müsste dem Rechnung tragen, ist aber strukturell unterfinanziert und als Beruf und Berufung ist das Lehramt nicht genug wert geschätzt. Auch Universitäten werden immer abhängiger von Geldgebern mit bestimmten eng gesteckten Zielen.

Wenn offensichtliche Lügen wenig bis gar keine Konsequenzen haben, greift das die Position von rational begründeten Entscheidungen - also auch eine im Kern von wissenschaftlichen Erkenntnissen getragener Weltaneignung - an der Wurzel an. Als Wissenschaftlerinnen können wir das nur schwer ertragen.

Was sind aber Fakten? In der wissenschaftlichen Auseinandersetzung geht es dabei stets um Interpretation von Daten und unterschiedliche Formen von Gewissheit. Was davon ist diskutabel oder überhaupt öffentlich diskutierbar? Als Menschen in der Forschung müssten wir außerhalb unserer Arbeitswelt offensiv für wissenschaftliche Kriterien werben. Wir müssen verstehen, wieso Leute Kraftposen so bewundernswert finden und rationale Diskussionen als "Liberales Getue" abwerten. Das ist unabhängig von Fakten sondern sehr emotional geprägt.

Wir als Forscherinnen müssen verstehen, dass unser Fortschrittsglaube außerhalb der Wissenschaft in der Gesellschaft nicht geteilt. wird: "Meine Kinder werden es nicht so gut haben wie ich."

Literatur und weiterführende Informationen B. Lugger (Leitung NaWik) Redebeitrag beim March of Science in Heidelberg Bachelor-Studiengang Wissenschaft – Medien – Kommunikation am KIT Master-Studiengang Wissenschaft – Medien – Kommunikation am KIT Blog der Abteilung Wissenschaftskommunikation mit Kurzbeitrag und Storify zum March of Science

Social Choice

Apr 21, 2017 38:50

Description:

Diese Folge ist eines von drei Gesprächen mit Mathematikerinnen und Mathematikern an der TU München (TUM) in Garching bei München, die Gudrun am 10. April 2017 dort geführt hat.

Paul Stursberg - hat an der TUM Mathematik studiert und promoviert dort am Lehrstuhl Angewandte Geometrie und Diskrete Mathematik. Wir haben uns über Gruppenentscheidungsmodelle (Social Choice) unterhalten, in denen mitunter auch der Zufall Hilfestellung gibt. Da auch Zuordnung nach Vorlieben (allocation) auf das gleiche Grundproblem führt, wird das Thema unter den Forschungsinteressen von Paul Stursberg als Randomized Social Choice/Ressource Allocation aufgeführt.

Das grundlegende Ziel bei Entscheidungen in einer Gruppe ist es, Einzelmeinungen zu einem fairen Gesamturteil zusammen zu führen. Am einfachsten ist es, einer als Anführer von allen anerkannten Person in ihrer Meinung zu folgen. Dieses Modell hat gute mathematische Eigenschaften, funktioniert immer, ist aber leider nicht besonders demokratisch. Je nachdem ob die Leitperson zur Gruppe gehört oder nicht wird es als Modell des internen/externen Diktators bezeichnet.

Ein zunächst nahe liegender Zugang zur bestmöglichen Entscheidung in einer Gruppe wäre, eine Nutzenfunktion auzufstellen und danach zu optimieren. Das klingt überzeugend ist aber oft ein unmögliches Unterfangen, weil es sich als sehr schwierig erweist, Vorlieben so zu quantifizieren dass man über die Gruppe konstante Zahlenwerte für einen entstehenden Nutzen findet. Deshalb kann man statt dessen mit ordinalen Präferenzrelationen arbeiten, d.h. im einfachsten Fall mit einer gewünschten Reihenfolge aller Optionen für jede Person der Gruppe.

Bevor man über Verfahren sprechen und diese bewerten kann, braucht man Kriterien, die Wahlverfahren (idealerweise) erfüllen sollen. Man muss definieren: Was ist eine gute und faire Entscheidung? Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer als Ergebnis der Gruppenentscheidung erscheinen. Ein etwas weitergehendes Kriterum könnte exemplarisch auch verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre.
Nachdem ein Katalog von Kriterien aufgestellt wurde, kann man sich unter anderem folgende Fragen stellen:

Finden wir Wahlverfahren, die all diese Kriterien erfüllen? Wenn ja, welche Wahlverfahren sind das? Können wir sie charakterisieren? Wenn nein, lässt sich zeigen, dass kein Wahlverfahen alle Kriterien zugleich erfüllen kann?

Ein bekanntes Beispiel für den letzten Fall ist der Satz von Arrow - ein Unmöglichkeitsresultat, das besagt, dass eigentlich sinnvolle Bedingungen an ein Wahlergebnis für mehr als zwei Optionen nicht gleichzeitig erfüllbar sind.

Hinsichtlich der Fairness kommen Wahlverfahren intuitiv schon an ihre Grenzen, wenn sich zwei Leuten abstimmen sollen, die gegensätzliche Wünsche haben: Jede (deterministische) Entscheidung bevorzugt offensichtlich einen der beiden Beteiligten. Hier kann man sich den Zufall zunutze machen, um eine faire Entscheidung zu treffen, was auf das Gebiet der randomisierten Sozialwahltheorie (randomized social choice) führt. Hier hängen viele Kriterien plötzlich davon ab, welche lottery extension verwendet wird, also wie aus ordinalen Präferenzrelationen Präferenzen über Wahrscheinlichkeitsverteilungen abgeleitet werden.


Literatur und weiterführende Informationen H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W. J. Cho: Probabilistic assignment: A two-fold axiomatic approach, 2012. H. Aziz, F. Brandt, and M. Brill: On the tradeoff between economic efficiency and strategyproofness in randomized social choice In Proceedings of the 12th International Conference on Autonomous Agents and Multi-Agent Systems (AAMAS), pp 455–462. IFAAMAS, 2013. H. Aziz, P. Stursberg: A generalization of probabilistic serial to randomized social choice. In Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence (AAAI-14), pp 559-565. AAAI Press, Palo Alto, 2014.
Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt: Wahlsysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich: Wahlrecht und Wahlsysteme, Gespräch mit T. Pritlove im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.

Ausgründung Chromatographie

Apr 14, 2017 40:13

Description:

Mit Teresa Beck setzt Gudrun das 2014 mit Tobias Hahn geführte Gespräch fort. Die Software ChromX zur Computersimulation von Chromatographie-Säulen ist inzwischen Teil des Portfolios einer Ausgründung aus dem KIT mit dem Namen GoSilico. Neben Thiemo Huuk, der gleichzeitig mit Tobias Hahn im Rahmen seiner biotechnologischen Promotion die Kundenbedürfnisse für Chromatographie-Simulationen erforscht hat, und Tobias Hahn ist Teresa als dritte im Team Gründerin der im Januar 2016 an den Start gegangenen GmbH.

Tobias ist Diplom-Mathematiker. 2010-2015 modellierte er im Rahmen seiner Promotion Aufreinigungsprozesse mit modernen mathematischen Simulationswerkzeugen. Es erwies sich als sinnvoll, dafür schließlich ganz in die Bio-Verfahrenstechnik zu wechseln. Teresa Beck ist hingegen Diplom-Meteorologin, deren Faszination für die Modellierung der Wetterphänomene am Computer schließlich zu einer Promotion in Mathematik am EMCL (erst in Karlsruhe und dann in Heidelberg) führte. Einige Zeit haben Gudrun, Tobias und Teresa in der gleichen Gruppe am Institut für Angewandte und Numerische Mathematik am KIT gearbeitet, bevor sich die Wege wieder trennten.

Der Kern des Programms ChromX ist eine parallelisierte Finite Elemente Simulationssoftware für die Advektions-Diffusions-Gleichungen in Aufreinigungsprozessen. Die Benutzer sind jedoch keine mathematischen Experten, sondern in der Regel Laborantinnen und Laboranten. Deshalb ist es genauso wichtig, eine funktionierende Simulation zu realisieren, wie eine grafische Oberfläche zu schaffen, die ganz intuitiv die Laborerfahrung nachbildet und dabei die Mathematik "versteckt". Schließlich sollen teure Experimente ersetzt werden und dafür muß die Bedienung den Personen im Labor leicht fallen und möglichst Freude machen. Alle eigentlich für die Mathematik wichtigen Parameter, die auf Parallelisierung, Wahl nichtlinearer Löser oder schlechte Kondition des Problemes Einfluß nehmen, muss das Programm eigenständig sinnvoll setzen, denn für den normalen Benutzer sind diese unverständlich.

Dafür müssen Parameter-Konfigurationen, die für die Bedienung gesetzt werden, von vornherein sinnvoll eingeschränkt werden, um die Stabilität und Korrektheit der Simulation zu gewährleisten. Daneben gibt es jedoch auch eine Experten-Lösung, wo ein Parameterfile direkt übergeben werden kann.

Es ist immer etwas ungewiß, wie erfolgreich Ideen aus der Forschung in ein florierendes Unternehmen übersetzt werden können. Für die Gründung von GoSilico war aber in der ganzen Entwicklungsphase schon die Industrie-Tauglichkeit mitgedacht und geeignete Partner mit am Tisch. Durch die Präsentation der Erfolge mit der Forschungssoftware auf Tagungen gab es auch schon vor der Ausgründung viel Interesse an einer zukünftigen Zusammenarbeit. Deshalb lagen zur Gründung viele Letters of intent vor. Wichtiger Teil des Alltages im Unternehmen ist es jetzt, die Software zu verkaufen. Es dauerte in den Verhandlungen bisher zwischen 70 und 250 Tage bis Firmen wirklich die Software erwarben. Meist folgte auf eine schnelle Zustimmung aus den Fachabteilungen (die aber (leider noch) keine Budgets für solche Software haben) die länger währende Abklärung aller rechtlichen Verpflichtungen auf beiden Seiten bevor die zuständigen übergeordneten Stellen das Geld für den Kauf freigaben. Das liegt auch daran, dass diese Art von Chromatographie-Simulation noch ganz neuartig ist und die Abläufe in den Unternehmen schießlich neu ordnen wird.

Wichtig für eine vertrauensvolle Zusammenarbeit ist, dass das interne Wissen der Firmen (intellectual property) geschützt bleibt (z.B. gegenüber anderen Firmen, die die Software auch erwerben oder schon benutzen). Nach etwas mehr als einem Jahr sind aber schon sechs große Kunden aus den weltweiten Top 20 gewonnen worden. Das Ziel für 2017 lautet, noch zwei weitere zu gewinnen. Dafür stehen die Chancen gut.

Gerade wächst das Team um mehrere Personen, damit die Weiterentwicklung, Dokumentation und Zertifizierungsverfahren (nach TÜV oder ISO) auf mehr Schultern verteilt werden können.



Literatur und weiterführende Informationen ChromX: Simulation toolbox for liquid chromatography of proteins. GoSilico: Company for software and methods for computer-aided – in silico – bioprocess development Simone Schappert - KIT-Gründerschmiede Gründer des Monats Juli 2016. Teresa Beck, Tobias Hahn, Thiemo Huuk, Jürgen Hubbuch: In-Silico Process Development: Success Stories. Poster presented at: 29th International Symposium on Preparative and Process Chromatography; 07/2016; Philadelphia, Pennsylvania, USA, 2016. Tobias Hahn, Thiemo Huuk, Vincent Heuveline, Jürgen Hubbuch: Simulating and Optimizing Preparative Protein Chromatography with ChromX. Journal of Chemical Education 09/2015; 92:1497–1502. DOI:10.1021/ed500854a, 2015. Gang Wang, Till Briskot, Tobias Hahn, Pascal Baumann, Jürgen Hubbuch: Estimation of adsorption isotherm and mass transfer parameters in protein chromatography using artificial neural networks. Journal of Chromatography A 03/2017; 1487:211–217. DOI:10.1016/j.chroma.2017.01.068, 2017. Thiemo C. Huuk, Tobias Hahn, Katharina Doninger, Jan Griesbach, Stefan Hepbildikler, Jürgen Hubbuch: Modeling of complex antibody elution behavior under high protein load densities in ion exchange chromatography using an asymmetric activity coefficient. Biotechnology Journal 03/2017, 1600336. DOI:10.1002/biot.201600336, 2017.
Podcasts T. Hahn: Chromatographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 21, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. A. Osberghaus: Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 22, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Isoperimetrische Probleme

Mar 17, 2017 28:02

Description:

Moritz Gruber hat an unserer Fakultät eine Doktorarbeit zu isoperimetrischen Problemstellungen verteidigt und spricht mit Gudrun Thäter über sein Forschungsgebiet. Ein sehr bekanntes Beispiel für ein solches Problem kommt schon in der klassische Mythologie (genauer in Vergils Aeneis) als Problem der Dido vor. Vergil berichtet, dass Dido als Flüchtling an Afrikas Küste landete und sich so viel Land erbat, wie sie mit der Haut eines Rindes umspannen kann. Was zunächst wie ein winziges Fleckchen Erde klingt, wurde jedoch durch einen Trick groß genug, um die Stadt Karthago darauf zu gründen: Dido schnitt die Tierhaut in eine lange Schnur. Das mathematische Problem, dass sich ihr anschließend stellte und das als Didos oder isoperimetrisches Problem bezeichnet wird ist nun: Welche Fläche mit einem Umfang gleich der vorgegebenen Schnurlänge umfasst den größten Flächeninhalt?

Natürlich wird dieses Problem zunächst etwas idealisiert in der Euklidischen Ebene gestellt und nicht in der konkreten Landschaft Karthagos. Es ist ein schwieriges Problem, denn man kann nicht alle Möglichkeiten ausprobieren oder einfach die Fälle durchkategorisieren. Andererseits liegt die Vermutung sehr nahe, dass der Kreis die Lösung ist, denn man kann sich schnell überzeugen, dass Symmetrien ausgenutzt werden können, um die eingeschlossene Fläche zu maximieren. Der Kreis hat unendlich viele Symmetrieachsen und schöpft diese Konstruktion deshalb gut aus.

Trotzdem war ein stringenter Beweis erst im 18. Jh. mit den bis dahin entwickelten Methoden der Analysis möglich. Unter anderem mussten Verallgemeinerungen des Ableitungsbegriffes verstanden worden sein, die auf dieses Optimierungsproblem passen.

Moritz Gruber interessiert sich für Verallgemeinerungen von isoperimetrischen Problemen in metrischen Räume, die in der Regel keinen Ableitungsbegriff haben. Die einzige Struktur in diesen Räumen ist der Abstand.

Eine Möglichkeit, hier Aussagen zu finden ist es, das Verhalten für große Längen zu untersuchen und das Wachstum von Flächen in Abhängigkeit vom Wachstum des Umfangs zu charakterisieren. Naheliegend ist eine Approximation durch umschriebene und einbeschriebene Quadrate als obere und untere Schranke für die Fläche, die tatsächlich umschlossen und nicht so einfach berechnet werden kann.

Außerdem interessieren ihn Verallgemeinerung auf Lie-Gruppen. Sie sind gleichzeitig differenzierbare Mannigfaltigkeit und Gruppe. Die Gruppenverknüpfung und Inversenbildung ist kompatibel mit der glatten Struktur.
Sogenannte nilpotente Lie-Gruppen sind den kommutativen (d.h. abelschen) Gruppen am nächsten und bieten ihm die Möglichkeit, dort Ergebnisse zu erhalten.

Die Übertragung der isoperimetrischen Probleme und mathematischen Methoden in höhere Dimensionen ergibt sehr viel mehr Möglichkeiten. In der Regel sind hier sind die unteren Schranken das schwierigere Problem. Eine Möglichkeit ist der Satz von Stokes, weil er Maße auf dem Rand und im Inneren von Objekten vernküpfen kann.


Literatur und weiterführende Informationen M.R. Bridson: The geometry of the word problem In Invitations to Geometry and Topology, ed. by M.R. Bridson & S.M. Salomon, Oxord Univ. Press 2002. L. Capogna, D. Danielli, S.C. Pauls & J.T. Tyson: An introduction to the Heisenberg group and the sub-Riemannian isoperimetric problem. Birkhäuser Progress in Math. 259, 2007. M. Gruber: Isoperimetry of nilpotent groups (Survey). Frontiers of Mathematics in China 11 2016 1239–1258. Schnupperkurs über metrische Geometrie

Podcasts L. Schwachhöfer: Minimalflächen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 118, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

New York

Feb 23, 2017 32:18

Description:

Eva-Maria Walz und Kathrin Kadel studieren Mathematik und Verfahrenstechnik am Karlsruher Institut für Technologie (KIT) und trafen sich in einem Softwarepraktikum zu Strömungssimulationen von Mathias Krause und erhielten darauf die Chance auf ein Auslandspraktikum am City College of New York (CCNY) in den USA, von dem sie uns im Gespräch mit Gudrun Thäter erzählen.

Die ersten Eindrücke waren überwältigend; auf der einen Seite Campusgebäude wie Kathedralen, auf der anderen Seite sehr viel Sicherheitspersonal und häufige Ausweiskontrollen. Nachdem die ersten organisatorischen Hürden überwunden waren, konnten sie sehr schnell in der Gruppe um Prof. Taehun Lee (Ph.D.) mitarbeiten. Ihr Thema war die Sedimentation von Partikeln einmal auf Basis von OpenFOAM und einmal auf Basis von OpenLB. Speziell ging es um die Modellierung von kreis- und kugelförmigen Partikeln und der Interaktion zweier Partikel und dem Vergleich von Ergebnissen und Performance.

Die beiden wurden während ihres Praktikums sowohl von der Gruppe in New York als auch von der Gruppe in Karlsruhe weiter betreut und hatten die Gelegenheit an externen Workshops in New York teilzunehmen. Sehr spannend fanden die beiden auch den Einblick in die andere Lehr- und Lernkultur in den Vereinigten Staaten.

Da das Praktikum in die Zeit der Präsidentschaftswahl 2016 fiel, war ihr Aufenthalt geprägt von rückschrittlichen Einstellungen zur Immigration, der geschlechtlichen Gleichberechtigung und Rolle der Bildung in der Gesellschaft. Neben den Reaktionen auf die Wahl in der Gesellschaft erlebten sie auch die Reaktionen der internationalen Forschungsgruppe, bei der sie zu Gast waren.

Der Aufenthalt wäre ohne Baden-Württemberg-Stipendium nicht möglich gewesen und die Wohnungssuche ist in einer Stadt wie New York nur vor Ort möglich. Die Organisation für einen akademischen Aufenthalt sollte man auf jeden Fall mit viel zeitlichem Vorlauf einplanen. Die Chancen durch einen Auslandsaufenthalt sind aber immer den Aufwand für die Organisation wert.

Topologieoptimierung

Feb 17, 2017 39:10

Description:

Margarita An hat ihre Masterarbeit im Rahmen einer Zusammenarbeit mit Dassault Systèms Deutschland (mit Sitz im Technologiepark in Karlsruhe) geschrieben. Sie hat Technomathematik mit dem technischen Nebenfach Maschinenbau studiert. Deshalb war sie daran interessiert für ihre Abschlußarbeit eine mathematische Fragestellung für eine möglichst konkretes Problem im Maschinenbau zu finden.

Nun hat sie eine neue Optimierungsstrategie entwickelt und implementiert, die Eulersche Formoptimierung mit Topologieoptimierung kombiniert. Formoptimierung bedeutet, ein Modell in seiner Form so zu verändern, dass ein bestimmtes Zielfunktional - z.B. die Spannungsbilanz im Körper - minimal wird. De Facto bedeutet das, dass die Oberfläche des Körpers bzw. sein Rand im Optimierungsprozess verändert wird. Eulersch heißt hierbei, dass die Geometrie des Randes mit Hilfe von Kontrollpunkten auf einem festen Netz definiert wird, während sich in der Lagrange-Formulierung das Netz während des Optimierungsprozesses verändert. Letzteres führt jedoch zu einer Abhängigkeit aller Algorithmen und Rechnungen von den Rechengitterknotenkoordinaten.

Hierfür dienen insbesondere regelmäßige Finite Elemente (kurz FE) Netze aus Quadraten bzw. Würfeln als Rechengitter. Die Kontrollpunkte sind dann die Designvariablen. Die Idee ist es, die Beschreibung des Randes vom FE-Netz zu trennen, d.h. die Oberfläche kann sich durch das Rechengitter "bewegen", ohne es zu beachten. Anstatt im Rechengitter Knoten mit dem Rand zu verändern, wird in dem betroffenen Teilgebiet des Modells ein Pseudodichtefeld wie von Topologieoptimierung bekannt, bestimmt. Dementsprechend kann die topologische Sensitivität mit einem Topologieoptimierungs-Werkzeug (z.B. Tosca Structure oder anderer CAD-Software) berechnet werden. Entscheidend dafür dass das gut funktioniert ist, dass die Abbildungsfunktion, welche topologische Sensitivität in Formoptimierungs-Sensitivität transformieren kann, linear ist.

Falls sich während des Optimierungsprozesses die FE-Netze ändern dürfen, vereinfacht das die Optimierung erheblich - vor allem die Sensitivitäts-Analyse. Auf der anderen Seite, ist die Beschreibung der Geometrie in Bezug auf die Randkurven oder Oberflächen natürlich etwas komplizierter. Wie die in der Arbeit vorgestellten Beispiele zeigen, ermöglicht der modifizierte Ansatz für Eulersche Formoptimierung jedoch durchaus optimale Lösungen ohne Gitter-Verformungen. Es gibt sogar ein recht einfaches Beispiel dafür, dass der Lagrange-Ansatz versagt, während der Eulersche Ansatz schnell die gewünschte Lösung findet.

Literatur und weiterführende Informationen K. Bandara, T. Rüberg & F. Cirak Shape: Optimisation with Multiresolution Subdivision Surfaces and Immersed Finite Elements Computer, Methods in Applied Mechanics and Engineering 300, 510-539, 2016. N.H. Kim & Y. Chang: Eulerian Shape Design Sensitivity Analysis and Optimization with a Fixed Grid Computer Method in Applied Mechanics and Engineering 194, 3291-3314, 2005. Kimmich: Strukturoptimierung und Sensibilitätsanalyse mit finiten Elementen Berich Nr. 12, Institut für Baustatik der Universität Stuttgart, 1990. Podcasts P. Allinger und N. Stockelkamp: Strukturoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

Fußgängergruppen

Feb 10, 2017 32:38

Description:

Mathias Zeleny hat sich im Rahmen seiner Masterarbeit damit beschäftigt, wie man in Fußgängersimulationen berücksichtigen kann, dass Menschen oft in Gruppen unterwegs sind. Natürlich wäre für realistische Simulationsergebnisse die Berücksichtigung von Gruppen sehr wichtig. Besonders deutlich wird das an so katastrophalen Ereignissen wie den Unglücksfällen im Rahmen des Haddsch in Mekka. Allerdings gibt es bisher kein allgemain akzeptiertes Modell für Gruppen in Fußgängersimulationen.

Was ist die Hauptcharakteristik des Verhaltens einer Fußgängergruppe? Dass die Personen in der Regel nah beieinander bleiben. Allerdings ist dies sehr vage und wird beispielsweise an Hindernissen auch durchbrochen.

Das "nah beieinander bleiben" läßt sich durch anziehende Kräfte modellhaft darstellen. Mathias betrachtete hierfür drei Modelle:

Jede/r zieht jede/n an, alle folgen einer Person, Nachzügler schließen auf.

Um mit diese Modelle zu testen, hat Mathias ein Interface programmiert, in dem diese Gruppenmodelle für verschiedene Szenarien durchgespielt wurden. Die gewählten Geometrien waren dabei:

Von links nach rechts ungehindert einen Korridor entlang laufen, Korridor entlang laufen mit Hindernis, Korridor entlang laufen mit Gegenverkehr.

Die Reaktion auf die Anziehungskräfte der Gruppe und des Ziels und die Abstoßung der Wände und Hindernisse liefert die Trajektorien für alle Fußgänger, die automatisch bewertet werden, ob sie mit der Realität mehr oder weniger gut übereinstimmen. Dafür musste er möglichst objektive Regeln aufstellen und diese dann überprüfen.

Prototypisch wurden von ihm folgende Kriterien ausgewählt:

Zeitbedarf für die Gruppe, räumliche Nähe der Gruppe über möglichst lange Zeit, Simulation läuft einwandfrei durch (also niemand läuft in eine Wand), Personen kommen sich nicht zu nah (so dass sie sich durchdringen müssten), es gibt keine Vollblockade.

Die zugehörigen Bewertungsfunktionen wurden je auf Werte zwischen 0 und 1 normiert und anschließend entweder arithmetisch gemittelt oder für notwendige Bedingungen multipliziert.

Die Ergebnisse erwiesen sich als noch nicht sehr aussagekräfitg. Als großes Problem stellte sich nämlich heraus, dass die Zeitdiskretisierung für die Gruppensimulationen unbedingt feiner gewählt werden muss als es in der herkömmlichen Fußgängersimulation üblich ist, da in nur einem Zeitschritt oft ein "in die Wand laufen" unausweichlich ist, wenn die Abstoßungskräfte zwischen Personen realistisch gewählt werden. Ein Gewinn ist darüber hinaus die formalisierte und objektifizierte Schnittstelle zur Evaluation von Gruppenmodellen, mit denen in Zukunft weiter in diesem Bereich geforscht werden kann.


Literatur und weiterführende Informationen C. Burstedde e.a.: Simulation of pedestrian dynamics using a two-dimensional cellular automaton, Physica A: Statistical Mechanics and its Applications 295 3–4, 507–525, 2001. Independent: Hajj stampede: History of disasters a ecting annual Islamic event in Mecca, 2015. F. Qiu und X. Hu: Modeling group structures in pedestrian crowd simulation. In: Simulation Modelling Practice and Theory 18.2, S. 190–205, 2010. M. Moussaïd u. a.:The Walking Behaviour of Pedestrian Social Groups and Its Impact on Crowd Dynamics. In: PLoS ONE 5.4 (Apr. 2010), e10047, 2010. G. Köster u. a.: Pedestrian and Evacuation Dynamics 2012. In: Hrsg. von U. Weidmann, U. Kirsch und M. Schreckenberg. Springer International Publishing. Kap. Validation of Crowd Models Including Social Groups, S. 1051–1063, 2014.
Podcasts T. Kretz: Fußgängermodelle, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. H. Benner: Fußgänger, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.

Akkumulatoren

Feb 3, 2017 53:56

Description:

Markus Maier hat 2016 in der Arbeitsgruppe des Instituts für Angewandte und Numerische Mathematik am KIT promoviert, in der auch Gudrun arbeitet. Sein Thema war The Mathematical Analysis of a Micro Scale Model for Lithium-Ion Batteries. Wie der Name der Arbeit suggeriert, betrachtet er Modelle für Lithium-Ionen-Akkumulatoren (die englische Übersetzung ist für uns Deutsche etwas irreführend Batteries), die auf mikroskopischer Ebene die Stromabgabe über die elektrochemischen Eigenschaften vorhersagen können. Ausgangspunkt des Themas war der Wunsch Degradationsmechanismen - also die Alterung der Akkus - besser zu verstehen.

Das Thema Strom speichern ist sehr wichtig und wird in Zukunft noch wichtiger werden. Simulationen sind hier nötig, da jedwedes Messen auf der Mikroskala unmöglich ist - es geht um Objekte von der Größe einiger Mikrometer. Das Ausweichen auf die besser durch Messungen begleitbare makroskopische Ebene im Modell ist nicht möglich, weil man nur auf der Ebene der Ionen die Abläufe nachbilden kann, die zur Alterung führen. Ein Beispiel für so einen Prozess ist, dass die Lithium Ionen nach der Wanderung durch das Elektrolyt in der Kathode auf Platzproblem treffen, die dazu führen können, dass die Katode beschädigt wird, wenn sich die Ionen den nötigen Platz verschaffen. Diese Beschädigungen führen zu Reduzierung der Kapazität.

Leider ist die modellhafte Auflösung der ganzen Mikrostruktur einer Batterie numerisch noch unmöglich - weshalb die Untersuchung der Arbeit im Moment nur lokale Ergebnisse enthält. Die kristalline Struktur in der Kathode kann es auch ermöglichen, dass sich eine zweite Phase bildet, in der sich mehr Lithium-Partikel anlagern als ursprünglich Platz in der Kathode ist. Das führt auf ein 2-Phasen-Problem mit einem Phasenübergang. Der Rand zwischen den Phasen ist dann Teil der gesuchten Lösung des Problems. Dieser Teil ist im Moment noch nicht im Modell enthalten.

Schließlich hat sich Markus darauf konzentriert, ein Kompromiss-Modell der Ingenieure zu untersuchen, das im Wesentlichen auf Erhaltungseigenschaften beruht. Es hat die Form eines Systems von zwei gekoppelten partiellen Differentialgleichungen für das elektrische Potential und die Lithium-Ionen-Verteilung, welche in den zwei aneinander grenzenden Gebieten gelten. Am Grenzübergang zwischen Elekrolyt und Lithium-Partikeln gilt eine nichtlinearen Gleichung.
Die erste Frage ist: Wie sichert man die Existenz und Eindeutigkeit der Lösung? Die Struktur des Beweises erweist sich als hilfreich für das anschließend gewählte numerische Verfahren. Es nutzt die Monotonie des elektrischen Potentials aus.

Die Argumente gelten allerdings nur für ein klein genug gewähltes Zeitintervall, weil ein konstanter Strom als Entaldungs-Randbedingung gewählt wurde (nur für kurze Zeiten realistisch). Für Modelle, die Degradation simulieren können, wären andere Randbedingungen nötig wie beispielsweise ein konstanter Widerstand.

Ein Masterstudent hat mit dem Open Source Finite-Elemente-Solver deal.II das vorgeschlagene Verfahren im Rahmen seiner Abschlussarbeit programmiert und nachgewiesen, dass es funktioniert und die Resultate überzeugen können.


Literatur und weiterführende Informationen A. Latz & J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. T. Seger: Elliptic-Parabolic Systems with Applications to Lithium-Ion Battery Models, Doktorarbeit Universität Konstanz, 2013. M. Kespe & H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. J.-M. Tarascon & M. Armand: Issues and challenges facing rechargeable lithium batteries, Nature 414 359-367, 2001.
Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016.

Finite Volumen

Jan 27, 2017 46:36

Description:

Das Gespräch mit Susanne Höllbacher von der Simulationsgruppe an der Frankfurter Goethe-Universität war ein Novum in unserer Podcastgeschichte. Das erste mal hatte sich eine Hörerin gemeldet, die unser Interesse an Partikeln in Strömungen teilte, was sofort den Impuls in Gudrun auslöste, sie zu einem Podcastgespräch zu diesem Thema einzuladen.

Susanne hat in der Arbeitsgruppe von Gabriel Wittum in Frankfurt promoviert. Dort werden Finite-Volumen-Verfahren zur Lösung von Partiellen Differentialgleichungen benutzt. Das Verfahren betrifft hier insbesondere die räumliche Diskretisierung: Das Rechengebiet wird in Kontrollvolumen aufgeteilt, in denen durch das Verfahren sichergestellt wird, dass bestimmte Größen erhalten bleiben (z.B. die Masse). Diese Verfahren stammen aus dem Umfeld hyperbolischer Probleme, die vor allem als Erhaltungsgesetze modelliert sind. Diese Gleichungen haben die Eigenschaft, dass Fehler nicht automatisch geglättet werden und abklingen sondern potentiell aufgeschaukelt werden können.

Trotzdem ist es möglich, diese numerischen Verfahren ähnlich wie Finite-Elemente-Verfahren als Variationsprobleme zu formulieren und die beiden Familien in der Analyse etwas näher zusammenrücken zu lassen. Gemeinsam ist ihnen ja ohnehin, dass sie auf große Gleichungssysteme führen, die anschließend gelöst werden müssen. Hier ist eine billige und doch wirkungsvolle Vorkonditionierung entscheidend für die Effizienz und sogar dafür, ob die Lösungen durch das numerische Verfahren überhaupt gefunden werden. Hier hilft es, schon auf Modell-Ebene die Eigenschaften des diskreten Systems zu berücksichtigen, da ein konsistentes Modell bereits als guter Vorkonditionierer fungiert.

Das Promotionsprojekt von Susanne war es, eine Methode zur direkten numerischen Simulation (DNS) von Partikeln in Fluiden auf Basis eines finite Volumen-Verfahrens zu entwickeln. Eine grundsätzliche Frage ist dabei, wie man die Partikel darstellen möchte und kann, die ja winzige Festkörper sind und sich anders als die Strömung verhalten. Sie folgen anderen physikalischen Gesetzen und man ist geneigt, sie als Kräfte in die Strömung zu integrieren. Susanne hat die Partikel jedoch als Teil des Fluides modelliert, indem die Partikel als finite (und nicht infinitesimal kleine) Volumen mit zusätzlicher Rotation als Freiheitsgrad in die diskreten Gleichungen integriert werden. Damit fügen sich die Modelle für die Partikel natürlich und konsistent in das diskrete System für die Strömung ein. Vorhandene Symmetrien bleiben erhalten und ebenso die Kopplung der Kräfte zwischen Fluid und Partikel ist gewährleistet. Die Nebenbedingungen an das System werden so formuliert, dass eine Sattelpunkt-Formulierung vermieden wird. Die grundlegende Strategie dabei ist, die externen Kräfte, welche bedingt durch die Partikel und deren Ränder wirken, direkt in die Funktionenräume des zugrundeliegenden Operators zu integrieren.

In biologischen Systemen mit hoher Viskotität des Fluides fungiert die Wirkung der Partikel auf das Fluid als Informationstransport zwischen den Partikeln und ist sehr wichtig.

In der Umsetzung dieser Idee verhielten sich die Simulationen des Geschwindigkeitsfeldes sehr gutartig, aber Susanne beobachtete Oszillationen im Druck. Da sie sich nicht physikalisch erklären ließen, musste es sich um numerische Artekfakte handeln. Bei näherem Hinsehen zeigte sich, dass es vor allem daran lag, dass die Richtungen von Kraftwirkungen auf dem Rand der Partikel im diskreten System nicht sinnvoll approximiert wurden. In den berechneten Lösungen für das Geschwindigkeitsfeld hat sich dies kaum messbar niedergeschlagen. Im Druck zeigte sich jedoch, dass es sich lohnt, hier das numerische Verfahren zu ändern, so dass die Normalenrichtungen auf dem Rand jeweils korrekt sind. Mathematisch heißt das, dass die Ansatzfunktionen so geändert werden, dass deren Freiheitsgrade auf dem Rand liegen. Der Aufwand dafür ist vergleichsweise gering und die Resultate sind überzeugend. Die Oszillationen verschwinden komplett.

Der Nachweis der Stabilität des entstehenden Gleichungssystems lässt sich über die inf-sup-Bedingung des orginalen Verfahrens erbringen, da die Konstruktion den Raum in der passenden Weise erweitert.


Literatur und weiterführende Informationen S. V. Apte, M. Martin, N. A. Patankar: A numerical method for fully resolved simulation (FRS) of rigid particle–flow interactions in complex flows, Journal of Computational Physics 228, S. 2712–2738, 2009. R. E. Bank, D. J. Rose: Some Error Estimates for the Box Method, SIAM Journal on Numerical Analysis 24, S. 777–787, 1987. Glowinski, R.: Finite element methods for incompressible viscous flow, P. G. Ciarlet, J. L. Lions (Eds.), Handbook of Numerical Analysis IX (North-Holland, Amsterdam), S. 3–1176, 2003. Strang, G.: Wissenschaftlisches Rechnen, Springer-Verlag Berlin Heidelberg, 2010. A. Vogel, S. Reiter, M. Rupp, A. Naegel, G. Wittum: UG 4: A novel flexible software system for simulating PDE based models on high performance computers, Computing and Visualization in Science 16, S. 165–179, 2013. G. J. Wagner, N. Moes, W. K. Liu, T. Belytschko: The extended finite element method for rigid particles in Stokes flow, International Journal for Numerical Methods in Engineering 51, S. 293–313, 2001. D. Wan, S. Turek: Fictitious boundary and moving mesh methods for the numerical simulation of rigid particulate flows, Journal of Computational Physics 222, S. 28–56, 2007. P. Wessling: Principles of Computational Fluid Dynamics, Springer, Series in Computational Mathematics, 2001. J. Xu, Q. Zou: Analysis of linear and quadratic simplicial finite volume methods for elliptic equations, Numerische Mathematik 111, S. 469–492, 2009. X. Ye: On the Relationship Between Finite Volume and Finite Element Methods Applied to the Stokes Equations, Numerical Methods for Partial Differential Equations 17, S. 440–453, 2001.
Podcasts T. Henn: Partikelströmungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 115, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/partikelstroemungen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/systembiologie

Rage of the Blackboard

Jan 19, 2017 42:21

Description:

Constanza Rojas-Molina is a postdoc at the Institute of Applied Mathematics of the University of Bonn. Gudrun Thäter met her in Bonn to talk about Constanza's blog The Rage of the Blackboard. The blog’s title makes reference to an angry blackboard, but also to the RAGE Theorem, named after the mathematical physicists D. Ruelle, W. Amrein, V. Georgescu, and V. Enss." Standing at a blackboard can be intimidating and quite a few might remember moments of anxiety when being asked to develop an idea in front of others at the blackboard. But as teachers and scientists we work with the blackboard on a daily basis and find a way to "tame" its "rage".

Gudrun and Constanza share that they are working in fields of mathematics strongly intertwined with physics. While Gudrun is interested in Mathematical Fluid dynamics, Constanza's field is Mathematical physics. Results in both fields very much rely on understanding the spectrum of linear (or linearized) operators. In the finite-dimensional case this means to study the eigenvalues of a matrix. They contain the essence of the action of the operator - represented by different matrices in differing coordinate systems. As women in academia and as female mathematicians Gudrun and Constanza share the experience that finding the essence of their actions in science and defining the goals worth to pursue are tasks as challenging as pushing science itself, since most traditional coordinate systems were made by male colleagues and do not work in the same way for women as for men. This is true even when raising own children does not enter the equation.

For that Constanza started to reach out to women in her field to speak about their mathematical results as well as their experiences. Her idea was to share the main findings in her blog with an article and her drawings. When reaching out to a colleague she sends a document explaining the goal of the project and her questions in advance. Constanza prepares for the personal conversation by reading up about the mathematical results. But at the same moment she is interested in questions like: how do you work, how do you come up with ideas, what do you do on a regular day, etc.

The general theme of all conversations is that a regular day does not exist when working at university. It seems that the only recurring task is daily improvisation on any schedule made in advance. One has to optimize how to live with the peculiar situation being pushed to handle several important tasks at once at almost any moment and needs techniques to find compromise and balance. An important question then is: how to stay productive and satisfied under these conditions, how to manage to stay in academia and what personal meaning does the word success then take. In order to distill the answers into a blog entry Constanza uses only a few quotes and sums up the conversation in a coherent text. Since she seeks out very interesting people, there is a lot of interesting material. Constanza focuses on the aspects that stay with her after a longer thought process. These ideas then mainly drive the blog article. Another part of the blog are two drawings: one portrait of the person and one which pictures the themes that were discussed and might not have made it into the text.

Surprisingly it turned out to be hard to find partners to talk to, and the process to make it a blog entry takes Constanza a year or longer. On the other hand, she feels very lucky that she found women which were very generous with their time and in sharing their experiences. Besides the engagement and love for what they do, all the participants had this in common: they were already promoting the participation of women in science. To learn from them as a younger researcher means, for example, to see the own impact on students and that building a community is very important, and a success in its own. Though Constanza invests a lot of time in the blog project, it is worth the effort since it helps her to work towards a future either in or outside academia.

Gudrun and Constanza found out that though both of their projects explore mathematical themes as well as people working in mathematics, the written parts of blog and podcast differ in that what makes it into the notes in Constanza's blog is, so to say, bonus material available only for the listening audience in Gudruns podcast (since it is never in the shownotes). In that sense, Gudrun's podcast and Constanza's blog are complementary views on the life of researchers.

Constanza did her undergraduate studies in La Serena in Chile. She started out with studying physics but soon switched to mathematics in order to understand the basics of physics. When she had almost finished her Masters program in La Serena she wanted to continue in science abroad. She was admitted to a french (one year) Master program at the University Paris 6 and later did her PhD in the nearby University Cergy-Pontoise. After that she applied for a Marie-Curie fellowship in order to continue her research in Germany. She spent time as postdoc at the Mittag-Leffler-Institut in Stockholm and at CAMTP in Maribor (Slovenia) before moving to the LMU Munich for two years with the fellowship. After that she got the position in Bonn and is now preparing for her next step.

Gudrun and Constanza want to thank Tobias Ried who put them in contact.

Gracias. Drawing by Constanza Rojas-Molina

References and further reading Women in Math statement Constanza Rojas-Molina: Etude mathématique des propriétés de transport des opérateurs de Schrödinger aléatoires avec structure quasi-cristalline (The mathematical study of electronic transport in random Schrödinger operators with quasicrystalline structures). PhD-thesis Université de Cergy-Pontoise, 2012. A. Pohl: Quantenchaos, Conversation with G. Thäter in the Modellansatz Podcast, Episode 79, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/quantenchaos Constanza's illustration blog

Fraktale Geometrie

Jan 5, 2017 1:04:31

Description:

Steffen Winter befasst sich mit fraktaler Geometrie, also mit Mengen, deren Dimension nicht ganzahllig ist. Einen intuitiven Zugang zum Konzept der Dimension bieten Skalierungseigenschaften. Ein einfaches Beispiel, wie das funktioniert, ist das folgende: Wenn man die Seiten eines Würfels halbiert, reduziert sich das Volumen auf ein Achtel (ein Halb hoch 3). Bei einem Quadrat führt die Halbierung der Seitenlänge zu einem Viertel (ein Halb hoch 2) des ursprünglichen Flächeninhalts und die Halbierung einer Strecke führt offenbar auf eine halb so lange Strecke (ein Halb hoch 1). Hier sieht man sehr schnell, dass die uns vertraute Dimension, nämlich 3 für den Würfel (und andere Körper), 2 für das Quadrat (und andere Flächen) und 1 für Strecken (und z.B. Kurven) in die Skalierung des zugehörigen Maßes als Potenz eingeht.

Mengen, bei denen diese Potenz nicht ganzzahlig ist, ergeben sich recht ästhetisch und intuitiv, wenn man mit selbstähnlichen Konstruktionen arbeitet. Ein Beispiel ist der Sierpinski-Teppich. Er entsteht in einem iterativen Prozess des fortgesetzten Ausschneidens aus einem Quadrat, hat aber selbst den Flächeninhalt 0. Hier erkennt man durch die Konstruktion, dass die Skalierung ln 8/ln 3 ist, also kein ganzzahliger Wert sondern eine Zahl echt zwischen 1 und 2.

Tatsächlich sind das Messen von Längen, Flächen und Volumina schon sehr alte und insofern klassische Probleme und auch die Defizite der beispielsweise in der Schule vermittelten Formeln beim Versuch, sie für Mengen wie den Sierpinski-Teppich anzuwenden, werden schon seit etwa 100 Jahren mit verschiedenen angepassten Maß- und Dimensionskonzepten behoben. Ein Dimensionsbegriff, der ganz ohne die Hilfe der Selbstähnlichkeit auskommt, wurde von Felix Hausdorff vorgeschlagen und heißt deshalb heute Hausdorff-Dimension. Hier werden Überdeckungen der zu untersuchenden Menge mit (volldimensionalen) Kugeln mit nach oben beschränktem (aber ansonsten beliebigem) Durchmesser angeschaut. Die Durchmesser der Kugeln werden zu einer Potenz s erhoben und aufsummiert. Man sucht unter allen Überdeckungen diejenigen, bei denen sich so die kleinste Durchmessersumme ergibt. Nun lässt man den maximal zulässigen Durchmesser immer kleiner werden. Die Hausdorff-Dimension ergibt sich als die kleinstmögliche Potenz s, für die diese minimalen Durchmessersummen gerade noch endlich bleiben.

Ein verwandter aber nicht identischer Dimensionsbegriff ist die sogenannte Box-Dimension. Für hinreichend gutartige Mengen stimmen Hausdorff- und Box-Dimension überein, aber man kann zum Beispiel Cantormengen konstruieren, deren Dimensionen verschieden sind. Für die Box-Dimension kann der Fall eintreten, dass die Vereinigung abzählbar vieler Mengen der Dimension 0 zu einer Menge mit Dimension echt größer als 0 führt, was im Kontext von klassischen Dimensionen (und auch für die Hausdorff-Dimension) unmöglich ist und folglich eher als Hinweis zu werten ist, mit der Box-Dimension sehr vorsichtig zu arbeiten. Tatsächlich gibt es weitere Konzepte fraktale Dimensionen zu definieren.

Interessant ist der Fakt, dass erst der Physiker und Mathematiker Benoit Mandelbrot seit Ende der 1960er Jahre eine intensivere Beschäftigung mit solchen Konzepten angestoßen hat. Er hatte in vielen physikalischen Phänomenen das Prinzip der Selbstähnlichkeit beobachtet - etwa dass sich Strukturen auf verschiedenen Größenskalen wiederholen. Wenn man z.B. ein Foto von einem Felsen macht und dazu keine Skala weiß, kann man nicht sagen, ob es sich um einen Stein, einen Ausschnitt aus einem mikroskopischen Bild oder um ein Kletterfelsen von 500m Höhe oder mehr handelt. Durch den Einzug von Computern an jedem Arbeitsplatz und später auch in jedem Haushalt (und den Kinderzimmern) wurde die Visualisierung solcher Mengen für jeden und jede sehr einfach möglich und führte zu einem regelrechten populärwissenschaftlichen Boom des Themas Fraktale.

Schwierige offene Fragen im Kontext solcher fraktalen Mengen sind z.B., wie man Begriffe wie Oberflächeninhalt oder Krümmung sinnvoll auf fraktale Strukturen überträgt und dort nutzt, oder wie die Wärmeausbreitung und die elektrische Leitfähigkeit in solchen fraktalen Objekten beschrieben werden kann.

Literatur und weiterführende Informationen B. Mandelbrot: Die fraktale Geometrie der Natur, Springer-Verlag, 2013. S. Winter: Curvature measures and fractals, Diss. Math. 453, 1-66, 2008. K. Falconer: Fractal geometry, mathematical foundations and applications, John Wiley & Sons, 2004. Podcasts P. Kraft: Julia Sets, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 119, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/julia-sets

Julia Sets

Dec 22, 2016 58:09

Description:

Pascal Kraft is a researcher at the Institute for Applied and Numerical Mathematics of the Karlsruhe Institute of Technology (KIT) and he introduces us to Julia Sets which he investigated for his Bachelors Thesis. It is natural for us to think something like this: If I take two simple things and put them together in some sense, nothing too complex should arise from that. A fascinating result of the work of mathematicians like Gaston Julia and Benoît Mandelbrot dating back to the first half of the 20th century show that this assumption doesn't always hold.

In his bachelor's thesis under supervision of Jan-Philipp Weiß, Pascal Kraft worked on the efficient computation of Julia Sets. In laymans terms you can describe these sets as follows: Some electronic calculators have the functions of repeating the last action if you press "=" or "enter" multiple times. So if you used the root function of your calculator on a number and now you want the root of the result you simply press "=" again. Now imagine you had a function on your calculater that didn't only square the input but also added a certain value - say 0.5. Then you put in a number, apply this function and keep repeating it over and over again. Now you ask yourself if you keep pressing the "="-button if the result keeps on growing and tends to infinity or if it stays below some threshold indefinitely.

Using real numbers this concept is somewhat boring but if we use complex numbers we find, that the results are astonishing.

To use a more precise definition: for a function f(z), the Filled Julia Set is defined as the set of values z, for whom the series (f^n(z))_n stays bounded. The Julia Set is defined as the boundary of this set. A typical example for a suitable function f(z) in this context is f(z) = z^2 + c. We now look at the complex plane where the x-axis represents the real part of a complex number and the y-axis its imaginary part. For each point on this plane having a coordinate (x,y) we take the corresponding complex number z=x+iy and plug this value into our function f(z) and the results over and over again up to a certain degree until we see if this sequence diverges. Computing a graphical representation of such a Julia Set is a numerically costly task since we have no other way of determining its interior points other then trying out a large amount of starting points and seeing what happens after hundreds of iterations.

The results, however, turn out to be surprising and worth the effort. The geometric representations - images - of filled Julia Sets turn out to be very aesthetically pleasing since they are no simple compositions of elementary shapes but rather consist of intricate shapes and patterns. The reason for these beautiful shapes lie in the nature of multiplication and addition on the complex plane: A multiplication can be a magnification and down-scaling, mirroring and rotation, whereas the complex addition is represented by a translation on the complex plane. Since the function is applied over and over again, the intrinsic features are repeated in scaled and rotated forms over and over again, and this results in a self-similarity on infinite scales. In his bachelor's thesis, Pascal focussed on the efficient computation of such sets which can mean multiple things: it can either mean that the goal was to quickly write a program which could generate an image of a Julia Set, or that a program was sought which was very fast in computing such a program. Lastly it can also mean that we want to save power and seek a program which uses computational power efficiently to compute such an image, i.e. that consumes little energy. This is a typical problem when considering a numerical approach in any application and it arises very naturally here: While the computation of Julia Sets can greatly benefit from parallelization, the benefits are at loss when many tasks are waiting for one calculation and therefore the speedup and computational efficiency breaks down due to Amdahl's law.

The difference of these optimization criteria becomes especially obvious when we want to do further research ontop of our problem solver that we have used so far. The Mandelbrot Set for example is the set of values c, for whom the Filled Julia Set is not equal to the Julia Set (i.e. the Filled Julia Set has interior points). One detail is important for the computation of either of these sets: If we check one single point we can never really say if it is inside the Filled Julia Set for sure (unless we can prove periodicity but that is not really feasible). What we can show however is, that if the magnitude of a point in the series of computations is above a certain bound, the results will tend to infinity from this point on. The approach is therefore to compute steps until either a maximum of steps is reached or a certain threshold is exceeded. Based on this assumption, we see that computing a point which lies inside the filled Julia Set is the bigger effort. So if computing a Julia Set for a given parameter is a lot of work, its complex parameter c most likely lies inside the Mandelbrot Set (as we find many points for whom the computation doesn't abort prematurely and it is therefore likely that some of these points will be interior). If we want to draw the Mandelbrot Set based on this approach, we have to compute thousands of Julia Sets and if the computation of a single image was to take a minute this would not really be feasible anymore.

Since the computation of a Julia Set can even be done in a webbrowser these days, we include below a little tool which lets you set a complex parameter c and compute four different Julia Sets. Have fun with our Interactive Julia Sets!


References and further reading J. Dufner, A. Roser, F. Unseld: Fraktale und Julia-Mengen, Harri Deutsch Verlag, 1998. H.-O. Peitgen, P. H. Richter: The beauty of fractals: images of complex dynamical systems, Springer Berlin Heidelberg, 1986. B. B. Mandelbrot: Fractal aspects of the iteration of z\to\lambda z(1-z) for complex \lambda and z, Annals of the New York Academy of Sciences 357.1: 249-259, 1980. P. Kraft: Paralleles Rechnen auf GPUs - Julia Mengen und das magnetische Pendel Fraktal, Bachelor Thesis. 2012. J. Gaston: Mémoire sur l’itération des fonctions rationnelles, Journal de Math´ematiques pures et appliqu ´ees 4 (Rep 1968), pp. 47-245 / 121-319, 1918. P. Blanchard: Complex analytical dynamics on the Riemann sphere, Bulletin of the American Mathematical Society 11, pp. 84-141, 1984.

Minimalflächen

Dec 15, 2016 58:50

Description:

Lorenz Schwachhöfer ist seit 2003 Professor für Mathematik an der TU Dortmund. Gudrun kennt ihn aus ihrer Zeit als als Hochuldozentin dort (2004-2008). Seinen kurzen Gastaufenthalt in der AG von Prof. Tuschmann in Karlsruhe wollten die beiden ausnutzen, um ein Podcast-Gespräch zu führen. Das Forschungsgebiet von Lorenz Schwachhöfer gehört zur Differentialgeometrie. Deshalb dreht sich ihr Gespräch um zentrale Begriffe in diesem mathematischen Gebiet zwischen Geometrie und Analysis: Die Krümmung und das Finden von Minimalflächen.

Der Begriff Krümmung kommt in unserer Alltagssprache vor. Die Mathematik muss das Konzept von "gekrümmt sein" nur klar fassen, um damit präzise arbeiten zu können. Die zentrale Eigenschaft, die durch das Wort beschrieben wird, ist wie sehr sich eine Fläche von einer Ebene unterscheidet. Oder auch wie stark sich eine Kurve von einer Geraden unterscheidet. Eine Ebene (bzw.eine Gerade) ist nicht gekrümmt. Mathematisch ausgedrückt haben sie deshalb die Krümmung 0. Wenn man nun untersuchen - und mit einer Zahl ausdrücken - möchte, wie sehr sich z.B. eine Kurve in jedem Punkt von eine Gerade unterscheidet, verwendet man folgenden Trick: Man definiert einen Parameter - z.B. die Bogenlänge - und stellt die Kurve als Funktion dieses Parameters dar. Dann berechnet man die Änderung des Richtungsvektors der Kurve in jedem Punkt. D.h. man braucht die zweite Ableitung nach dem Parameter in dem Punkt. Das Ergebnis für einen Kreis mit Radius r lautet dann: Er hat überall die Krümmung 1/r. Daran sieht man auch, dass kleine Kreise sehr stark gekrümmt sind während sehr große Kreise eine so kleine Krümmung haben, dass man sie fast nicht von einer Geraden unterscheiden kann. Auch die Erdoberfläche wirkt lokal wie eine Ebene, denn in der mit unseren Augen wahrgenommenen Umgebung ist ihre Krümmung klein.

Was für Kurven recht anschaulich zu definieren geht, ist für Flächen im dreidimensionalen Raum nicht ganz so klar. Das einzig klare ist, dass für jede Art Krümmung, die man mathematisch definiert, jede Ebene in jedem Punkt die Krümmung 0 haben muss. Wenn man die Idee der Parametrisierung auf Flächen überträgt, geht das im Prinzip auch, wenn man zwei Parameter einführt und Krümmung auf eine bestimmte Richtung im Punkt auf der Fläche entlang bezieht. Beim Zylinder kann man sich gut vorstellen, wie das Ergebnis aussieht: Es gibt die Richtung entlang der Kreislinie des Querschnitts. Diese Kurve ist ein Kreis und hat die Krümmung 1/r. Läuft man dazu im rechten Winkel auf der Zylinderhülle, folgt man einer Gerade (d.h. Krümmung in diese Richtung ist 0). Alle anderen Wege auf der Zylinderoberfläche liegen in Bezug auf die Krümmung zwischen diesen beiden Werten 1/r und 0.

Tatsächlich kann man auch für allgemeine Flächen zeigen, dass man in jedem Punkt eine Zerlegung in zwei solche "Haupt"-Richtungen findet, für die maximale bzw. minimale Krümmungswerte gelten (und die senkrecht zueinander sind). Alle anderen Richtungen lassen sich daraus linear zusammensetzen. Die Kugeloberfläche hat z.B. eine hohe Symmetrie und verhält sich in allen Richtungen gleich. Alle Wege auf der Kugeloberfläche sind lokal Teile von Kreisen. Man kann sich hier auch überlegen, was tangential bedeutet, indem man in einem Punkt auf der Oberfläche eine Ebene anschmiegt. Die Richtung senkrecht auf dieser tangentialen Ebene ist die Normalenrichtung auf dem Punkt der Kugeloberfläche an dem die Tangentialebene anliegt.

Tatsächlich gibt es für Flächen aber mehr als einen sinnvollen Krümmungsbegriff. Man kann z.B. einen Zylinder sehr schön in Papier "einwickeln". Bei einer Kugel geht das nicht - es bleibt immer Papier übrig, das man wegfalten muss. Wenn man einen Kühlturm einpacken möchte, reicht das Papier nicht für die nach innen einbuchtende Oberfläche. Die Eigenschaft, die wir mir dem Einwickeln veranschaulicht haben, wird mit dem Begriff der Gaußkrümmung ausgedrückt. Um sie zu berechnen, kann man in einem Punkt die oben definierten Richtungsskrümmungen anschauen. Maximal- und Minimalwerte werden für senkrecht aufeinander stehende Richtungen realisiert. Das Produkt der beiden extremen Krümmungen ergibt dann die Gaußkrümmung. In unserem Beispiel mit dem Zylinder ist die Gaußkrümmung also 0 mal 1/r = 0.

Das ist aber tatsächlich ganz unabhängig von der Richtungskrümmung untersuchbar, weil es sich durch Längen- bzw. Flächenverhältnisse in der Fläche bestimmen lässt. Genauer gesagt: Wenn man auf der Kugel um einen Punkt einen Kreis auf der Kugeloberfläche zieht (d.h. seine Punkte liegen auf der Kugeloberfläche und haben alle den Abstand r vom gewählten Punkt), hat dieses Objekt einen kleineren Flächeninhalt als ein ebener Kreis mit dem gleichen Radius. Deshalb sagt man: Die Kugel hat positive Gaußkrümmung. Bei negativer Gaußkrümmung ist der Flächeninhalt auf der Oberfläche größer als in der Ebene. Das trifft für den Kühlturm zu. Diese Eigenschaft lässt sich innerhalb der Fläche untersuchen. Man braucht gar keine Einbettung in einen umgebenden Raum. Das ist zunächst sehr überraschend. Es ist aber unbedingt nötig für Anwendungen in der Astrophysik, wo die Raumzeit wegen der Gravitation gekrümmt ist (d.h. sie ist kein euklidischer Raum). Es hat aber niemand ein Bild, in welche höhere Dimension man die Raumzeit einbetten sollte, um dann mit der Krümmung in Bezug auf diesen Raum zu arbeiten.

Neben den beiden schon diskutierten Begriffen kann man auch mit der mittleren Krümmung arbeiten. Sie ist definiert als Mittelwert aller Richtungskrümmungen. Man kannn aber zeigen, dass dies stets das arithmetische Mittel zwischen minimaler und maximaler Krümmung ist. Dies hat auch eine physikalische Interpretation - z.B. als Flächenspannung für eine Membran, die eingespannt ist. Die Membran versucht, einen möglichst geringen Flächeninhalt - eine sogenannte Minimalfläche - zu realisieren, weil dies dem minimalen Energieaufwand entspricht. Spannungsfreie Flächen sind sehr stabil und deshalb für Architekten interessant. Im Schülerlabor Mathematik kann man mit Seifenhäuten selbst ausprobieren, welche Flächen sich hier für unterschiedliche Randkurven herausbilden. Z.B. wurde die Dachkonstruktion des ehemaligen Olympiastadions in München aus Minimalflächen konstruiert, die mit Seifenhäuten gefunden, fotographiert und nachgebaut wurden..

Mathematisch sprechen wir vom Plateau-Problem. Die Frage ist dabei: Hat jede geschlossene Kurve mindestens eine zugehörige Minimalfläche? Heute wissen wir, dass die Antwort - unter sehr geringen Regularitätsforderungen an die Kurve - fast immer ja ist. Sehr verblüffendend ist in diesem Zusammenhang auch der Satz von Gauß/Bonnet. Er sagt, dass das Integral über die Gaußkrümmung jeder in sich selbst geschlossenen Fläche ein ganzzahliges Vielfaches von 2π ist. Dieser Faktor heißt dann Euler-Charakteristik und hängt nur von der Topologie (grob gesprochen der Zahl der Löcher im Gebiet) ab. Beim Torus ist sie 0 und für die Kugeloberfläche 2.

Interessant ist in diesem Zusammenhang auch die Behandlung von nicht glatten Kurven bzw. Flächen mit Ecken und Kanten. An den Kanten ist das Konzept der Gaußkrümmung noch recht einfach übertragbar. Der betrachtete Kreis auf der Oberfläche klappt sich dabei um die Kante herum. An den Ecken geht das nicht so einfach, sondern führt auf komplexere Gebilde. Wenn man sich aber z.B. einen Würfel ansieht, hat dieser fast überall die Krümmung 0. Trotzdem ist er (topologisch gesehen) einer Kugel viel ähnlicher als einer Ebene. Hier kann man den Begriff der Gaußkrümmung richtig für Polyeder mit Kanten und Ecken verallgemeinern und der Satz von Gauß/Bonnet überträgt sich sinngemäß auf Polyeder. Das Integral wird zur Summe über die Polyederflächen und wir erhalten den wohlbekannten Polyedersatz:

Euler-Charakteristik mal Anzahl der Flächen - Anzahl der Kanten + Anzahl der Ecken = 2

Der Polyedersatz ist eigentlich ein kombinatorisches Ergebnis. Trotzdem zeigt sich hier, dass die topologischen Eigenschaften intrinsisch mit der Krümmung zusammenhängen, was sehr überraschend, aber auch sehr ästhetisch zwei einander sehr fremde Teilgebiete der Mathematik zusammenführt.

Lorenz Schwachhöfer hat in Darmstadt und in New Orleans Mathematik studiert und nach seiner Promotion 1992 (in Philadelphia) u.a. wissenschaftlich Station gemacht an der Washington Universität (in St. Louis), dem Max Planck Institut für Mathematik in Bonn, der Universität in Leipzig (dort Habilitation) und an der Université Libre in Brüssel.

Literatur und weiterführende Informationen J-H. Eschenburg & J. Jost: Differentialgeometrie und Minimalflächen. Springer Verlag, 3. Auflage, 2014. T. Matiasek: Seifenhäute und Minimalflächen: Natur, Geometrie und Architektur. VDM Verlag Dr. Müller, 2010 Wolfgang Kühnel: Differentialgeometrie: Kurven - Flächen - Mannigfaltigkeiten, Springer Verlag, 2013. Manfredo doCarmo, Differentialgeometrie von Kurven und Flächen, Vieweg+Teubner Verlag, 1993. Christian Bär, Elementare Differentialgeometrie, deGruyter, 2017. Video Seifenhäute (engl.) Podcasts P. Schwer: Metrische Geometrie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/metrische-geometrie L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe

Vier Farben

Dec 9, 2016 49:55

Description:

Torsten Ueckerdt arbeitet seit 2012 in der Arbeitsgruppe Diskrete Mathematik an unserer Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT). Er hat an der TU Berlin Mathematik studiert und promoviert. Anschließend forschte er für einige Zeit in Prag mit Jan Kratochvil.

Er arbeitet unter anderem mit geometrischen Graphen. Graphen sind allgegenwärtige Modelle in vielen und sehr unterschiedlichen Anwendungen. Im jedem Fall bestehen sie aus Knoten und Kanten (zwischen den Knoten). Ein Beispiel für einen geometrischen Graphen, auf das wir im Gespräch mehrfach zurückkommen, ist die folgende Reduktion von Landkarten: Knoten stehen für die Länder und Kanten zwischen zwei Knoten symbolisieren eine gemeinsame Grenze der Länder. Damit ist der Graph eine abstrakte aber dabei auch sehr klare Fassung der nachbarschaftlichen Lage der Länder in der Landkarte. Das heißt, dass für die Darstellung im Graphen die meiste geometrische Information der Landkarte aussortiert wird. Andere Beispiele für geometrische Graphen sind Sichtbarkeitsgraphen, geometrische Vergleichbarkeits- und Schnittgraphen (z.B. Intervallgraphen), Einheitsdistanz-Graphen oder geordnete Graphen die etwa bei Schedulingproblemen eine große Rolle spielen.

Wenn ein geometrisches Problem mittels eines Graphen abstrahiert wird, kann das immense Vorteile bringen. Zum Beispiel können so Resultate, Konzepte und Techniken für allgemeine Graphen verwendet werden. Auch das bloße "Vergessen" der geometrischen Einbettung kann die Argumentationen und Objekte erheblich vereinfachen. Andererseits ist das erstrebte Resultat für allgemeine Graphen eventuell gar nicht gültig. Eine wichtige Aufgabe ist es deshalb, eine gute Balance zu finden zwischen Abstraktion und wesentlicher geometrischer Information, die die Untersuchung beeinflusst. Interessant ist, dass bestimmte Eigenschaften des Graphen von der Geometrie "dahinter" diktiert werden.

Sehr zugängliche Beispiele für die Nützlichkeit der Abstraktion durch Graphen sind das Königsberger Brückenproblem und das Springerproblem.

Andere Fragen, die Torsten umtreiben sind das Färben (z.B. von Knoten oder Kanten) und Überdecken von Graphen. Einige Bekanntheit erlangte z.B. das Vier-Farben-Problem. Die Frage ist dabei, ob es für alle Landkarten möglich ist, die Länder mit vier unterschiedlichen Farben so einzufärben, dass Nachbarländer stets unterschiedliche Farben haben. Der Beweis dafür, dass dies eine wahre Aussage ist, ist inzwischen gelungen und hat zwei Hauptschritte. Im ersten Schritt werden die potentiell unendlich viele Fälle, die bei Landkarten auftreten können, auf endlich viele (leider noch sehr viele) zurückgeführt. Anschließend wird der Beweis durch Fallunterscheidungen für mehrere 1000 Fälle auf Computer ausgelagert.

An diesem Beispiel zeigen sich auch deutlich einige typische Aspekte von Torstens Arbeit. Einerseits scheint es nicht sehr befriedigend, dass man auf Computer im Beweis nicht verzichten kann. Andererseits ist der schwierige Schritt eigentlich der erste und die hier entwickelte Idee ist in der Tat eine sehr allgemeine Methode, die inzwischen auch für andere Fragen immer wieder eingesetzt wurde. Sie ist also bedeutsamer als "nur" Hilfsmittel im Beweis des Vier-Farben-Satzes zu sein. Andererseits trägt die Idee zwar weit genug für das Problem, aber wahrscheinlich ist sie nicht wirklich optimal für die untersuchte Struktur, da noch zu viele Fälle zu betrachten bleiben, die dann brutal durchprobiert werden. So gibt es auch spannende Verallgemeinerungen des Vier-Farben-Problems die bis heute ungelöst sind. Beim sogenannten Earth-Moon Problem fragt man zum Beispiel was passiert wenn jedes Land der Erde zusätzlich eine Kolonie auf dem Mond errichtet und wir nun die Länder mit möglichst wenigen Farben einfärben wollen, so dass keine zwei Länder die auf der Erde oder auf dem Mond benachbart sind die gleiche Farbe erhalten. Wir wissen nur, dass die kleinste Anzahl benötigter Farben irgendwo zwischen 9 und 12 liegt. Es sind letztlich nicht die errechneten Zahlen (wie die vier im Vier-Farben-Satz) das eigentlich Interessante, sondern die für deren Bestimmung entwickelten neuen Methoden.

Ein weiterer Aspekt ist die enge Verbindung von Kombinatorik und Geometrie. Die Tatsache dass in so vielen Fällen die kontinuierliche und überabzählbare Welt der Geometrie eindeutig durch die diskrete und endliche Welt der Kombinatorik beschrieben werden kann, ist faszinierend und immer wieder spannend. In der diskreten und kombinatorischen Geometrie versucht Torsten zum Einen geometrische Arrangements kombinatorisch zu beschreiben und zum Anderen kombinatorische Objekte, wie zum Beispiel Graphen, geometrisch zu realisieren. Die einfach formulierbaren Fragen in Torstens Arbeiten haben häufig schwierige Antworten bzw. entziehen sich einer Bearbeitung noch ganz. Nicht zuletzt liegt das auch daran, dass die Kombinatorik schnell mit der explodierenden Komplexität an die Wand fährt. Am Beispiel der Landkarte: Nur für zehn (oder weniger) Länder lassen sich Ideen relativ schnell (innerhalb eines Tages auf einem gängigen Computer) kombinatorisch ausprobieren - es hier genau 1.140.916 verschiedene Landkarten. Im Allgemeinen wächst die Anzahl der Landkarten allerdings exponentiell in der Anzahl der Länder - es gibt zwischen 27,2^n und 30,06^n viele Karten mit n Ländern. Die einzige realistische Möglichkeit geometrische Graphen zu untersuchen, bspw. in Hinblick auf ihre Färbungen oder Überdeckungen, besteht also in der rigorosen Analyse im wiederholten Wechsel zwischen Geometrie und Kombinatorik - eine Herausforderung die Kreativität und Kontinuität erfordert, aber viel Freude und Inspiration birgt.

Literatur und weiterführende Informationen Jaroslav Nesetril: Diskrete Mathematik: Eine Entdeckungsreise, Springer-Lehrbuch, 2007. Martin Aigner: Graphentheorie: Eine Einführung aus dem 4-Farben Problem. Springer Fachmedien Wiesbaden, 2015. Michael Reeken et al: Das Königsberger Brückenproblem - Eine Handreichung für Schüler und Schülerinnen, MathePrisma, 1998. Podcasts C. Schulz: Graphpartitionierung, Gespräch mit Gudrun Thäter im Modellansatz Podcast, Folge 38, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/graphpartitionierung J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine

Homogenization

Dec 2, 2016 56:00

Description:

Andrii Khrabustovskyi works at our faculty in the group Nonlinear Partial Differential Equations and is a member of the CRC Wave phenomena: analysis and numerics. He was born in Kharkiv in the Ukraine and finished his studies as well as his PhD at the Kharkiv National University and the Institute for Low Temperature Physics and Engineering of the National Academy of Sciences of Ukraine. He joined our faculty in 2012 as postdoc in the former Research Training Group 1294 Analysis, Simulation and Design of Nanotechnological Processes, which was active until 2014. Gudrun Thäter talked with him about one of his research interests Asymptotic analysis and homogenization of PDEs.

Photonic crystals are periodic dielectric media in which electromagnetic waves from certain frequency ranges cannot propagate. Mathematically speaking this is due to gaps in the spectrum of the related differential operators. For that an interesting question is if there are gaps inbetween bands of the spectrum of operators related to wave propagation, especially on periodic geometries and with periodic coeffecicients in the operator. It is known that the spectrum of periodic selfadjoint operators has bandstructure. This means the spectrum is a locally finite union of compact intervals called bands. In general, the bands may overlap and the existence of gaps is therefore not guaranteed. A simple example for that is the spectrum of the Laplacian in  L_2(R^n) which is the half axis [0, \infty).
The classic approach to such problems in the whole space case is the Floquet–Bloch theory.

Homogenization is a collection of mathematical tools which are applied to media with strongly inhomogeneous parameters or highly oscillating geometry. Roughly spoken the aim is to replace the complicated inhomogeneous by a simpler homogeneous medium with similar properties and characteristics. In our case we deal with PDEs with periodic coefficients in a periodic geometry which is considered to be infinite. In the limit of a characteristic small parameter going to zero it behaves like a corresponding homogeneous medium. To make this a bit more mathematically rigorous one can consider a sequence of operators with a small parameter (e.g. concerning cell size or material properties) and has to prove some properties in the limit as the parameter goes to zero. The optimal result is that it converges to some operator which is the right homogeneous one. If this limit operator has gaps in its spectrum then the gaps are present in the spectra of pre-limit operators (for small enough parameter).

The advantages of the homogenization approach compared to the classical one with Floquet Bloch theory are:

The knowledge of the limit operator is helpful and only available through homogenization. For finite domains Floquet Bloch does not work well. Though we always have a discrete spectrum we might want to have the gaps in fixed position independent of the size of our domain. Here the homogenization theory works in principle also for the bounded case (it is just a bit technical).

An interesting geometry in this context is a domain with periodically distributed holes. The question arises: what happens if the sizes of holes and the period simultaneously go to zero? The easiest operator which we can study is the Laplace operator subject to the Dirichlet boundary conditions. There are three possible regimes:

For holes of the same order as the period (even slightly smaller) the Dirichelet conditions on the boundary of holes dominate -- the solution for the corresponding Poisson equation tends to zero. For significantly smaller holes the influence on the holes is so small that the problem "forgets" about the influence of the holes as the parameter goes to zero. There is a borderline case which lies between cases 1 and 2. It represents some interesting effects and can explain the occurance of so-called strange terms.

A traditional ansatz in homogenization works with the concept of so-called slow and fast variables. The name comes from the following observation. If we consider an infinite layer in cylindrical coordinates, then the variable r measures the distance from the origin when going "along the layer", \phi the angle in that plane, and z is the variable which goes into the finite direction perpendicular to that plane. When we have functions y(x)=r^k f(z,\phi) then the derivative with respect to r changes the power to r^{k-1} while the other derivatives leave that power unchanged. In the interesting case k is negative and the r-derivate makes it decreasing even faster. This leads to the name fast variable. The properties in this simple example translate as follows. For any function u we will think of having a set of slow and fast variables (characteristic to the problem) and a small parameter eps and try to find u as  u=u_0(x) + \varepsilon u_1(x,y) + \varepsilon^2 u_2(x,y) + ... where in our applications typically y=x/\varepsilon. One can formally sort through the \varepsilon-levels using the properties of the differential operator. The really hard part then is to prove that this formal result is indeed true by finding error estimates in the right (complicated) spaces.

There are many more tools available like the technique of Tartar/Murat, who use a weak formulation with special test functions depending on the small parameter. The weak point of that theory is that we first have to know the resulat as the parameter goes to zero before we can to construct the test function. Also the concept of Gamma convergence or the unfolding trick of Cioranescu are helpful.

An interesting and new application to the mathematical results is the construction of wave guides. The corresponding domain in which we place a waveguide is bounded in two directions and unbounded in one (e.g. an unbounded cylinder).
Serguei Nazarov proposed to make holes in order to make gaps into the line of the spectrum for a specified wave guide. Andrii Khrabustovskyi suggests to distribute finitely many traps, which do not influence the essential spectrum but add eigenvalues. One interesting effect is that in this way one can find terms which are nonlocal in time or space and thus stand for memory effects of the material.

References P. Exner and A. Khrabustovskyi: On the spectrum of narrow Neumann waveguide with periodically distributed δ′ traps, Journal of Physics A: Mathematical and Theoretical, 48 (31) (2015), 315301. A. Khrabustovskyi: Opening up and control of spectral gaps of the Laplacian in periodic domains, Journal of Mathematical Physics, 55 (12) (2014), 121502. A. Khrabustovskyi: Periodic elliptic operators with asymptotically preassigned spectrum, Asymptotic Analysis, 82 (1-2) (2013), 1-37. S.A. Nazarov, G. Thäter: Asymptotics at infinity of solutions to the Neumann problem in a sieve-type layer, Comptes Rendus Mecanique 331(1) (2003) 85-90. S.A. Nazarov: Asymptotic Theory of Thin Plates and Rods: Vol.1. Dimension Reduction and Integral Estimates. Nauchnaya Kniga: Novosibirsk, 2002.

Partikelströmungen

Nov 25, 2016 44:45

Description:

Thomas Henn hat im Oktober 2016 seine Promotion zum Thema Computersimulation von Partikelströmungen abgeschlossen. Partikelströmungen treten in zahlreichen natürlichen sowie künstlichen Vorgängen auf, beispielsweise als Transport von Feinstaub in den menschlichen Atemwegen, als Bildung von Sediment in Flüssen oder als Feststoff–Fluid Gemisch bei Filtrationen. Simulationen von Partikelströmungen kommen zum Einsatz, wenn physische Untersuchungen nicht möglich sind. Darüber hinaus können sie Kosten experimenteller Studien verringern.

Häufig ist das der Fall, wenn es um medizinische Anwendungen geht. Wenn man beispielsweise aus CT-Aufnahmen die genaue Geometrie des Naseninnenraums eines Patienten kennt, kann durch Simulation in dieser spezifischen Geometrie ermittelt werden, wo sich Partikel welcher Größe ablagern. Das ist in zwei Richtungen interessant: Erstens zur Vermeidung von Gesundheitsbelastungen durch Einlagerung von Partikeln in der Lunge (dort landen alle Partikel, die die Nase nicht filtern kann) aber zweitens auch bei der bestmöglichen Verabreichung von Medikamenten mittels Zerstäubung in die Nasenhöhle.

Es hat sich gezeigt, dass die Simulation von Strömungen mit einer großen Zahl an beliebig geformten Partikeln den herkömmlichen numerischen Methoden insbesondere bei der Parallelisierung Probleme bereitet. Deshalb wird die Lattice Boltzmann Methode (LBM) als neues Verfahren zur numerischen Simulation von Strömungen auf Partikelströmungen angewendet. Sie hat außerdem den Vorteil, dass komplexe Geometrien wie z.B. ein Naseninnenraum keine extra zu bewältigende Schwierigkeit darstellen.

Die zentrale Idee für die effektive Parallelisierung unter LBM ist eine Gebietszerlegung: Die durchströmte Geometrie wird in Zellen aufgeteilt und diese Zellen gerecht auf die zur Verfügung stehenden Prozessoren verteilt. Da die Rechnungen für die Strömungsrechnung mit LBM im wesentlichen lokal sind (es werden nur die Informationen einer Zelle und der direkten Nachbarzellen benötigt), ist das extrem effektiv. Wenn nun neben der Strömung auch noch die Bewegung der Partikel berechnet werden soll, müssen natürlich

physikalische Bewegungsmodelle gefunden werden, die für die jeweilige Partikelgröße und -form passen, daraus Gleichungen und deren Diskretisierung abgeleitet werden in der Implementierung die Vorteile der LBM bei der Parallelisierung möglichst nicht zerstört werden.

Offensichtlich ist es am besten, wenn die Partikel möglichst gleichmäßig über die durchströmte Geometrie verteilt sind. Aber das kann man sich ja nicht immer so aussuchen.

Je nach Größe und Dichte der Partikel wird es wichtig, neben der Wirkung des Fluids auf die Partikel auch

Rückwirkung des Partikels auf die Strömung, Wechselwirkung der Partikel untereinander (z.B. auch herausfinden, wann sich Partikel berühren) Wechselwirkung der Partikel mit dem Rand der Geometrie

zu betrachten.

Als sehr hilfreich hat sich eine ganz neue Idee herausgestellt: Partikelströmungen als bewegtes poröses Medium zu modellieren. D.h. für große Partikel stellt man sich vor, sie haben einen festen Kern und außen einen glatten Übergang in der Porösität zur reinen Fluidphase. Es zeigt sich, dass man dann sogar auf ein Modell verzichten kann, das die Kontakte der Partikel modelliert, weil sich die Partikel so natürlich in der Strömung bewegen, wie man es auch im Experiment beobachtet.

Alle Berechnungen müssen validiert werden, auch wenn manchmal nicht ganz klar ist, wie das erfolgen kann. Zum Glück ist hier aber die enge Zusammenarbeit mit der Verfahrenstechnik am KIT eine große Hilfe, die die Computersimulationswerkzeuge auch für ihre Projekte nutzen und weiter entwickeln.

Literatur und weiterführende Informationen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters OpenLB Open source Lattice Boltzmann Code F. Bülow: Numerical simulation of destabilizing heterogeneous suspensions at vanishing Reynolds numbers. Karlsruhe, 2015. T. Henn et al.: Particle Flow Simulations with Homogenised Lattice Boltzmann Methods. To appear in Particuology. F. Klemens: Simulation of Fluid-Particle Dynamics with a Porous Media Lattice Boltzmann Method, MA thesis. Karlsruher Institut für Technologie, 2016. E. E. Michaelides: Particles, Bubbles & Drops: Their Motion, Heat and Mass Transfer, World Scientific Publishing Company Incorporated, 2006. T.Henn: Aorta Challenge, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 2, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/aorta-challenge

Schaukeln

Nov 18, 2016 18:24

Description:

Helen hat am Karlsruher Institut für Technologie (KIT) ihren Bachelor in Mathematik abgeschlossen. Als Bachelorarbeit hatte sie sich das Thema Schaukeln gewählt unter der Betreuung von Gudrun Thäter. Es geht darin um Modelle, die tatsächlich die Schaukel vom Spielplatz untersuchen. Die zentrale Frage, die durch die Modelle und daraus abgeleitete Simulationen beantwortet werden soll ist: Wie funktioniert das Schwung geben beim schaukeln?

Eine grundlegende Idee (die Helen aus der Literatur entnommen hat) ist es, die Schaukel als Fadenpendel mit veränderlicher Fadenlänge anzusehen. Das liegt daran, dass das Schwung geben sich vor allem durch die Veränderung der Lage des Schwerpunkts erklärt, die dann im Modell als veränderliche Pendellänge eingeht.

Fadenlänge als Funktion in der Zeit erwies sich als nicht praktikabel deshalb ist sie in Helens Modell nun eine Funktion von der Winkelauslenkung. Das führt auf eine Differentialgleichung zweiter Ordnung für die Variable der Auslenkung. Reibungsverluste der Schaukel werden auf herkömmliche Art integriert und als proportional zur Geschwindigkeit des Massepunktes angenommen. Um realistische Parameter für Rechnungen zu gewinnen, konnten wir leider keine Experimente mit schaukelnden Kindern durchführen, sondern haben uns auf Computer-Simulation für unterschiedliche Konstellationen verlassen und Parameter für die realistisch erscheinenden Szenarien daraus entnommen.

In der Arbeit enthalten sind nun neben dem theoretischen Modell auch unterschiedliche Fälle mit verschiedenen Seillängen und Personengrößen durchgerechnet und graphisch dargestellt. Zwei Ergebnisse, die man daraus ablesen kann sind, dass kürzere Schaukeln es einem leichter machen, sich aufzuschaukeln und große Leute einen Vorteil haben, weil sie ihren Schwerpunkt über eine größere Strecke verschieben können.

Schließlich war es entscheidend für den Erfolg der Arbeit, sich an der richtigen Stelle Rat zu suchen.

Literatur und weiterführende Informationen Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976.

Reguläre Strömungen

Nov 11, 2016 46:18

Description:

Strömungen beobachten wir fast jeden Tag. Die Meeresbrandung fasziniert uns und eine gut funktionierende Klimaanlage ist ein wunderbarer Luxus, egal ob sie wärmt oder kühlt. Strömungen zu beherrschen ist aber auch in vielen verfahrenstechnischen Zusammenhängen wichtig. Insofern haben Gleichungen, die Strömungen beschreiben, eine große praktische Relevanz und gleichzeitig eine fast emotionale Anziehungskraft. Das einfachste mathematische Modell, das auch für viele Computersimulationen genutzt wird, sind die inkompressiblen Navier-Stokes Gleichungen (INS). Hier ist die strömende Substanz dem Wasser ähnlich genug, dass nur in der Materialkonstante Viskosität verschiedene Fließfähigkeiten unterschieden werden. Als Lösungen des Systems von partiellen Differentialgleichungen suchen wir das Geschwindigkeitsfeld und den Druck als Funktionen von Raum und Zeit . Im 3d-Fall ist das ein System von vier Gleichungen. Drei davon sind eine Vektorgleichung, die aus der Impulserhaltung abgeleitet wird und die vierte ist die Erhaltung der Masse. Im inkompressiblen Fall vereinfacht sich diese aus die Forderung, dass die Divergenz des Geschwindigkeitsfeldes verschwindet. Die komplexer aussehende Gleichung ist die Vektorgleichung, weil hier die zweiten räumlichen Ableitungen des Geschwindigkeitsfeldes, der Druckgradient, die zeitliche Ableitung der Geschwindigkeit und ein nichtlinearer Term vorkommen. Die Gleichungen müssen im Strömungsgebiet gelten. Die Lösungen müssen sich aus dem Anfangszustand entwickeln (Anfangsbedingung) und am räumlichen Rand vorgeschriebenen Werten, den Randwerten (meist fordert man, dass die Geschwindigkeit Null ist) genügen.

Dieses Modell ist in einem längeren Prozess entwickelt worden. Ein großer Durchbruch bei der mathematischen Analyse gelang dem französischen Mathematiker Leray im Jahr 1934. Er hatte die geniale Idee, sich von dem Wunsch zu verabschieden, für diese komplizierte Gleichung eine punktweise zutreffende Lösung zu konstruieren. Statt dessen verallgemeinerte er den Lösungsbegriff und führte den Begriff der schwachen Lösung ein. Diese erfüllt die Gleichung nur im Sinne eines ausgeklügelten Systems von unendlich vielen Integralgleichungen. Er zeigte mit Hilfe von abstrakten Argumenten, dass die INS immer solche schwachen Lösungen haben.

Heute ist bekannt, dass

falls eine punktweise Lösung existiert (sogenannte starke Lösung), diese eindeutig ist (also insbesondere mit der schwachen übereinstimmt), es in 2d immer eine punktweise Lösung gibt, die für alle Zeiten existiert (unter geringfügigen Bedingungen an den Rand), und es unter Kleinheitsbedingungen an die Daten und bei glattem geometrischen Rand des Gebietes auch in 3d punktweise Lösungen gibt.

Wir wissen jedoch in 3d nicht, ob die gefundenen schwache Lösung regulär bzw. stark ist (d.h. eine punktweise Lösung ist.)

In Vorbereitung auf den Jahrtausendwechsel gab es in der Mathematik die Bestrebung, so wie dies 100 Jahre zuvor von Hilbert geschehen war, die wichtigsten mathematischen Problemstellungen in den Fokus zu nehmen. Das Ergebnis waren sieben sogenannte Milleniumsprobleme der Clay Foundation, für deren Lösung jeweils ein Preisgeld von einer Millionen Dollar ausgelobt wurde. Eines dieser für so wichtig angesehenen Probleme ist die offene Frage der Regularität der schwachen Lösungen der INS.

Woran liegt das? Eine Eigenschaft der INS, die sie schwierig macht, ist ihre Nichtlinearität. Sie ist nur quadratisch und hat eine besondere Struktur. Diese Struktur verdanken wir es z.B., dass die schwache Theorie erfolgreich ist. Es besteht Hoffnung, dass wir auch die Lücke zur starken Theorie unter Ausnutzung der Struktur schließen können.

Der Standardweg im linearen Fall (z.B. beim Laplace-Problem) ist es, für die schwachen Lösungen mit einem Münchhausen-Prinzip (Elliptic Bootstrapping) Stück für Stück mehr Regularität zu zeigen. Man kann so zeigen, dass die Lösung immer so gut ist, wie die es Daten erlauben. Man nennt das maximale Regularität.

Leider ist für die INS das Wachstum in der Nichtlinearität zu schnell, um im 3d-Fall mit diesen Standardmethoden zu argumentieren (im 2d Fall geht es aber).

Im 3d-Fall geht es aber unter bestimmten Zusatzbedingungen, z.B. einer höheren Integrierbarkeit des Geschwindigkeitsfeldes als die schwachen Lösungen von vornherein haben. Man fand dies über Skalierungs-Eigenschaften der Gleichung heraus. Grob gesagt, muss man fordern dass die Lösung zu einem Raum gehört, der Skalierungsinvariant ist. Eine weitere zusätzliche Forderung ist die Gültigkeit der Energiegleichung (Erhaltung der kinetischen Energie), denn leider weiß man bisher von schwachen Lösungen nur, dass sie eine Energieungleichung erfüllen.

Eine zweite Schwierigkeit der INS ist der Zusammenhang zwischen Druck und Divergenzgleichung.

Ein Trick der schwachen Theorie ist, dass wir uns von Anfang an auf Funktionen beschränken, die schwach divergenzfrei sind (also die Gleichung  \mathrm{div}\, v=0 in Integralmittel erfüllen. Was in der Theorie sehr gut funktioniert, ist blöd für die Numerik, weil man Divergenzfreiheit immer wieder herstellen muss wegen der Rechenfehler im Prozess.

Unter den Forschern gibt es zwei Richtungen: Entweder man sucht nach Blow-up Lösungen, also schwachen Lösungen, die keine punktweisen Lösungen sein können, oder man versucht die Zusatzforderungen aufzuweichen (um sie am Ende ganz weglassen zu können). Dabei gibt es ständig kleine Fortschritte.

Es gibt auch zwei Wege, für allgemeinere Modelle Theorien zu entwickeln, die dann im Spezialfall auch etwas über INS sagen. Ein durch O.A. Ladyzenskaya vorgeschlagener Zugang geht über den p-Laplace-Operator. Hier findet man starke Lösungen für alle p>2,5, die INS ist jedoch der Fall p=2. Als Materialgesetz interessant für Ingenieure ist aber der noch schwierigere Fall 1<p<2.

Der zweite Weg sind kompressible Modelle zu nutzen, um Inkompressibilität durch eine Folge immer weniger kompressibler Modelle zu approximieren. Das ist aber sehr schwierig, denn die Skalierungszusammenhänge sind nicht klar und die kompressiblen Modelle sind in der Gültigkeit schwer zu verifizieren. Z.B. lassen sie in der Regel eine Dichte von Null zu, was physikalisch nicht sinnvoll ist.

Mark Steinhauer entdeckte die INS in seiner Studienzeit durch eine Vorlesung von Jens Frehse in Bonn. Es gab eine sehr enge Zusammenarbeit mit Schülern von Jindřich Nečas (von der Karlsuni in Prag) z.B. mit Michael Růžička und Josef Málek (und inzwischen deren Schüler). Er promovierte in Bonn und arbeitet heute als Dozent für Mathematik vor allem mit zukünftigen Lehrpersonen an der Uni in Koblenz.

Literatur und weiterführende Informationen Ladyzhenskaya, O. A. (1969) [1963, The Mathematical Theory of Viscous Incompressible Flow], Mathematics and Its Applications, 2 (Revised Second ed.), New York–London–Paris: Gordon and Breach Ladyzhenskaya, O. A. (1985), The Boundary Value Problems of Mathematical Physics, Applied Mathematical Sciences, 49, Berlin–Heidelberg–New York: Springer Verlag Leray: Sur le mouvement d´un liquide visqueux emplissant l´espace, Acta Mathematica, Band 63, 1934, S. 193–248 Málek, J., Nečas, J., Rokyta, M.,Růžička, M.: Weak and measure–valued solutions to evolutionary PDE’s, Series: Applied Mathematics and Mathematical Computation 13, Chapman and Hall (CRC Press), 1996. Frehse, J., Málek, J., Steinhauer, M.: On analysis of steady flows of fluids with shear dependent viscosity based on the Lipschitz truncation method, SIAM J. Math. Anal. 34 (No.5) (2003), 1064–1083. Temam, R. (2001), Navier–Stokes Equations, Theory and Numerical Analysis, AMS Chelsea, pp. 107–112

Filters

Nov 4, 2016 28:03

Description:

Liliana de Luca Xavier Augusto is PhD student of chemical engineering at the Federal University of São Carlos in Brasil. She spent one year of her PhD (October 2015-2016) at the KIT in Karlsruhe to work with the group developing the software OpenLB at the Mathematical Department and the Department of Chemical Engineering.

Liliana Augusto investigates filtering devices which work on a micro (10^{-6}m) and nano (10^{-9}m) level, and computes the pressure drop between in- and outlet of the filter as well as the collection efficiency. There is a research group conducting experimental setups for these problems, but her research group focuses specifically on mathematical modeling and computer simulation. Due to the small scale and nature of the experiments, one cannot easily take pictures from the physical filters by electronic microsopy, but it is indeed feasible to deduce some important characteristics and geometry such as the size of the fibres for proper modelling and simulation. Appropriate models for the small scale are mesoscopic like Lattice Boltzmann Model where microscopic models are very expensive- too expensive. She is busy with special boundary conditions necessary no-slip boundary condition on the macro scale has to be translated. There is a certain slip to be taken into account to align the results with experimental findings.

Lattice Boltzman methods are not very prominent in Brasil. She was looking for suitable partners and found the development group around OpenLB who had co-operations with Brazil. She tried to apply the software on the problem, and she found out about the possibility to work in Germany through a program of the Brasilian government. It is not so common to go abroad as a PhD-student in Brazil. She learnt a lot not only in an academical manner but highly recommends going abroad to experience new cultures as well.

She does not speak German- everything, from looking for partners to arriving in Germany, happened so fast that she could not learn the language beforehand. At the university, English was more than sufficient for scientific work, but she had difficulties finding a place to stay. In the end, she found a room in a student dorm with German students and a few other international students.

References L.L.X. Augusto e.a.: CFD Simulation of nanofiber-enhanced air filter media - FILTECH 2015 - G6 - Modelling and simulation, 2015. L.L.X. Augusto e.a.: Predicting air flow resistance and capture efficiency of fibrous air filter media - Roomvent, 2014.

Was ist Mathematik?

Oct 28, 2016 50:08

Description:

Günter M. Ziegler hat unsere Fakultät besucht, um im Didaktik-Kolloquium einen Vortrag mit dem Titel Was ist Mathematik? zu halten. Diese Gelegenheit ergriff Gudrun Thäter, um ihn auf ein kurzes Gespräch zu diesem weitreichenden Thema einzuladen.

Günter M. Ziegler studierte Mathematik und Physik an der LMU München. Er promovierte 1987 am MIT in Cambridge und war anschließend in Augsburg und Djursholm (Schweden) wissenschaftlich tätig. 1992 habilitierte er an der TU Berlin und arbeitete anschließend sowohl am Konrad-Zuse-Zentrum als auch an der TU in Berlin (seit 1995 als Professor). 2011 folgte er einem Ruf auf eine Professur für Mathematik an die FU Berlin. Im Jahr 2001 erhielt er den höchstdotierten deutschen Wissenschaftspreis, den Gottfried-Wilhelm-Leibniz-Preis der DFG.

Professor Ziegler ist natürlich als jemand, der selbst in der Mathematik forscht, berufen, fundiert über sein Bild der Mathematik zu reden. Darüber hinaus hat er aber auch maßgeblich als Präsident des Berufsverbandes der Mathematiker, der DMV (von 2006 bis 2008) mit darauf hingearbeitet, das Bild der Mathematik in der Öffentlichkeit zu korrigieren und die Allgegenwart mathematischer Techniken und Ergebnisse im Alltag aller Menschen mit dem Wissenschaftsjahr der Mathematik 2008 ins Bewusstsein zu heben. Seither schreibt er auch regelmäßig die Kolumne Mathematik im Alltag in den Mitteilungen der DMV. Er ist Autor verschiedener Bücher zum Themenkreis und wurde für seine vielfältige Tätigkeit 2008 mit dem Communicator Preis ausgezeichnet. Auf dem Internationalen Mathematikerkongress ICM 2014 in Seoul präsentierte er einen eingeladenen Vortrag What is Mathematics?

Das Gespräch berührt unter anderem die Themen:

Wie fing die persönliche Begeisterung für Mathematik an? Wer ist eigentlich Mathematiker bzw. Mathematikerin? Wie kann man die vielfältigen Facetten der Mathematik sichtbar machen? Wie geht das in der Schule? Wie müssen wir Lehrpersonen hierfür ausbilden? Was ist eine Zahl?


Wikipedia definiert Mathematik als "Wissenschaft ..., die durch logische Definitionen selbstgeschaffene abstrakte Strukturen mittels der Logik auf ihre Eigenschaften und Muster untersucht.". Dies klingt sehr langweilig und übersieht, dass Mathematik viele Aspekte hat:

Mathematik ist als ein Teil unserer Kultur eingebettet in die Geschichte der Menschheit und war lange auf das engste verbunden mit der Wissenschaft Physik. Mathematik ist aber auch ein Werkzeugkasten für den Alltag. Für Deutschland ist das sehr spürbar seit dem Rechenbüchlein von Adam Ries (1522) - heute gehört dazu auch noch Statistik und Wahrscheinlichkeitsrechnung zur Sortierung von Daten und Fakten. Mathematik ist Zukunftswissen als Grundlage von Hightech. Das zeigt sich u.a. darin, dass es Grundlage für jedes ingenieurwissenschaftliche Studium ist. Mathematik ist eine natürliche menschliche Tätigkeit, in der er seiner Neugier folgt und die spannend und herausfordernd ist.

Schüler lernen im Lauf der Schulkarriere in der Regel nicht alle diese Facetten kennen. Nach dem Namen der verwendeten Schulbücher könnte man zum Beispiel denken, Geometrie und Algebra bildeten zusammen die Mathematik. Außerdem hat sich im Lauf der Zeit die Mathematik verändert. Das wird z.B. sichtbar in der Rolle der Computer früher und heute. Im Vergleich dazu gibt zu wenig Wechsel im schulischen Lernstoff. Was über die Zeit bleibt, sind natürlich die Fertigkeiten sauber zu argumentieren, präzise zu formulieren und logisch zu denken. Das muss man unter anderem auch als Ingenieur, Mediziner und Jurist können. Darüber hinaus ist es eine Grundfertigkeit im Alltag, Statistiken zu lesen und zu verstehen.

Ein gutes Beispiel, um auch schon in der Schule aufzuzeigen, wo und wie überall Mathematik benutzt wird, wäre z.B. zu vermitteln wie die Wettervorhersage entsteht: Wie wird es gerechnet, mit welchen Unsicherheiten ist das Ergebnis behaftet usw.. Die Numerik ist im Detail zu schwierig, aber die Prinzipien lassen sich durchaus aufzeigen. Man kann auch damit beginnen, dazu Geschichten zu erzählen, die zunächst Grundprinzipien klar machen und anschließend bestimmte Aspekte auch genau und in der Tiefe verständlich machen. Deshalb wurde eine "Erzählvorlesung" Panorama der Mathematik in Berlin entwickelt, die das insbesondere für Lehramtskandidaten und -kandidatinnen sichtbar machen soll und Mathematik in einen weiten Kontext setzt. Es wird die Entwicklung von Mathematik als von Fragen getriebener Prozess dargestellt und ihre Ergebnisse nicht als alternativlos. Denn nicht einmal die Darstellung der Zahlen im Dezimalsystem ist die einzige Möglichkeit, die sich hätte durchsetzen können.

Literatur und weiterführende Informationen R. Courant & H. Robbins: Was ist Mathematik? Springer 2001, ISBN 978-3540637776. H. Mendick et.al: Mathematical Bilder and identities: Education, entertainment, social justice. 2008 G.M. Ziegler: Darf ich Zahlen? Geschichten aus der Mathematik. Piper-Verlag, 2010, ISBN 3-492-05346-7. G.M. Ziegler: Mathematik – Das ist doch keine Kunst!. Albrecht Knaus Verlag, München 2013, ISBN 978-3-8135-0584-9. Podcasts G.M. Ziegler: Abenteuer Mathematik, Gespräch mit Tim Pritlove im Forschergeist Podcast, Folge 31, Stifterverband/Metaebene, 2016. W. Lück: Topologie, Gespräch mit Gudrun Thäter, Folge 40, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.

Operations Research

Oct 20, 2016 2:31:18

Description:

Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt.

Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem.

Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar.

Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung.

Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können.

Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können.

Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt.

Sind die Variablen eines Optimierungsproblems im \mathbb{R}^n, so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm.

Ein Polyeder - Public Domain von Svdmolen - commons.wikimedia.org/wiki/File:Rombische_kuboctaëder.png

Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem.

Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren.

Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können.

Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz.

Kürzester Rundreiseweg durch die 15 größten Städte Deutschlands (14 sind genannt, Dortmund fehlt). Insgesamt sind 14!/2 = 43.589.145.600 verschiedene Wege möglich. - Public Domain aus dem World Fact Book commons.wikimedia.org/wiki/File:TSP_Deutschland_3.png

Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen.

Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt.

Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie x_7=3.5 kann man nun zwei ganzzahlige Restriktionen definieren wie x_7\leq3 oder x_7\geq4, und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben.

Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen.

In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python.

Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen.

Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.

Crime Prevention

Oct 14, 2016 40:34

Description:

This is the last of four conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th April 2016 in Oxford.

Andrea Bertozzi from the University of California in Los Angeles (UCLA) held a public lecture on The Mathematics of Crime. She has been Professor of Mathematics at UCLA since 2003 and Betsy Wood Knapp Chair for Innovation and Creativity (since 2012). From 1995-2004 she worked mostly at Duke University first as Associate Professor of Mathematics and then as Professor of Mathematics and Physics. As an undergraduate at Princeton University she studied physics and astronomy alongside her major in mathematics and went through a Princeton PhD-program. For her thesis she worked in applied analysis and studied fluid flow. As postdoc she worked with Peter Constantin at the University of Chicago (1991-1995) on global regularity for vortex patches. But even more importantly, this was the moment when she found research problems that needed knowledge about PDEs and flow but in addition both numerical analysis and scientific computing. She found out that she really likes to collaborate with very different specialists. Today hardwork can largely be carried out on a desktop but occasionally clusters or supercomputers are necessary.

The initial request to work on Mathematics in crime came from a colleague, the social scientist Jeffrey Brantingham. He works in Anthropology at UCLA and had well established contacts with the police in LA. He was looking for mathematical input on some of his problems and raised that issue with Andrea Bertozzi. Her postdoc George Mohler came up with the idea to adapt an earthquake model after a discussion with Frederic Paik Schoenberg, a world expert in that field working at UCLA. The idea is to model crimes of opportunity as being triggered by crimes that already happend. So the likelihood of new crimes can be predicted as an excitation in space and time like the shock of an earthquake. Of course, here statistical models are necessary which say how the excitement is distributed and decays in space and time. Mathematically this is a self-exciting point process.

The traditional Poisson process model has a single parameter and thus, no memory - i.e. no connections to other events can be modelled. The Hawkes process builds on the Poisson process as background noise but adds new events which then are triggering events according to an excitation rate and the exponential decay of excitation over time. This is a memory effect based on actual events (not only on a likelihood) and a three parameter model. It is not too difficult to process field data, fit data to that model and make an extrapolation in time. Meanwhile the results of that idea work really well in the field. Results of field trials both in the UK and US have just been published and there is a commercial product available providing services to the police.

In addition to coming up with useful ideas and having an interdisciplinary group of people committed to make them work it was necessery to find funding in order to support students to work on that topic. The first grant came from the National Science Foundation and from this time on the group included George Tita (UC Irvine) a criminology expert in LA-Gangs and Lincoln Chayes as another mathematician in the team.

The practical implementation of this crime prevention method for the police is as follows: Before the policemen go out on a shift they ususally meet to divide their teams over the area they are serving. The teams take the crime prediction for that shift which is calculated by the computer model on the basis of whatever data is available up to shift. According to expected spots of crimes they especially assign teams to monitor those areas more closely. After introducing this method in the police work in Santa Cruz (California) police observed a significant reduction of 27% in crime. Of course this is a wonderful success story. Another success story involves the career development of the students and postdocs who now have permanent positions. Since this was the first group in the US to bring mathematics to police work this opened a lot of doors for young people involved.

Another interesting topic in the context of Mathematics and crime are gang crime data. As for the the crime prediction model the attack of one gang on a rival gang usually triggers another event soon afterwards. A well chosen group of undergraduates already is mathematically educated enough to study the temporary distribution of gang related crime in LA with 30 street gangs and a complex net of enemies. We are speaking about hundreds of crimes in one year related to the activity of gangs. The mathematical tool which proved to be useful was a maximum liklihood penalization model again for the Hawkes process applied on the expected retaliatory behaviour.

A more complex problem, which was treated in a PhD-thesis, is to single out gangs which would be probably responsable for certain crimes. This means to solve the inverse problem: We know the time and the crime and want to find out who did it. The result was published in Inverse Problems 2011. The tool was a variational model with an energy which is related to the data. The missing information is guessed and then put into the energy . In finding the best guess related to the chosen energy model a probable candidate for the crime is found. For a small number of unsolved crimes one can just go through all possible combinations. For hundreds or even several hundreds of unsolved crimes - all combinations cannot be handled. We make it easier by increasing the number of choices and formulate a continuous instead of the discrete problem, for which the optimization works with a standard gradient descent algorithm.

A third topic and a third tool is Compressed sensing. It looks at sparsitiy in data like the probability distribution for crime in different parts of the city. Usually the crime rate is high in certain areas of a city and very low in others. For these sharp changes one needs different methods since we have to allow for jumps. Here the total variation enters the model as the L^1-norm of the gradient. It promotes sparsity of edges in the solution. Before coming up with this concept it was necessary to cross-validate quite a number of times, which is computational very expensive. So instead of in hours the result is obtained in a couple minutes now.

When Andrea Bertozzi was a young child she spent a lot of Sundays in the Science museum in Boston and wanted to become a scientist when grown up. The only problem was, that she could not decide which science would be the best choice since she liked everything in the museum. Today she says having chosen applied mathematics indeed she can do all science since mathematics works as a connector between sciences and opens a lot of doors.


References Press coverage of Crime prevention collected Website of Mathematical and Simulation Modeling of Crime
Examples for work of undergraduates M. Allenby, e.a.: A Point Process Model for Simulating Gang-on-Gang Violence, Project Report, 2010. K. Louie: Statistical Modeling of Gang Violence in Los Angeles, talk at AMS Joint meetings San Francisco, AMS Session on Mathematics in the Social Sciences, 2010]
Publications of A. Bertozzi and co-workers on Crime prevention G.O. Mohler e.a.: Randomized controlled field trials of predictive policing, J. Am. Stat. Assoc., 111(512), 1399-1411, 2015. J. T. Woodworth e.a.: Nonlocal Crime Density Estimation Incorporating Housing Information, Phil. Trans. Roy. Soc. A, 372(2028), 20130403, 2014. J. Zipkin, M. B. Short & A. L. Bertozzi: Cops on the dots in a mathematical model of urban crime and police response, Discrete and Continuous Dynamical Systems B, 19(5), pp. 1479-1506, 2014. H. Hu e.a.: A Method Based on Total Variation for Network Modularity Optimization using the MBO Scheme, SIAM J. Appl. Math., 73(6), pp. 2224-2246, 2013. L.M. Smith e.a.: Adaptation of an Ecological Territorial Model to Street Gang Spatial Patterns in Los Angeles Discrete and Continuous Dynamical Systems A, 32(9), pp. 3223 - 3244, 2012. G. Mohler e.a.. (2011): Self- exciting point process modeling of crime, Journal of the American Statistical Association, 106(493):100–108, 2011. A. Stomakhin, M. Short, and A. Bertozzi: Reconstruction of missing data in social networks based on temporal patterns of interactions. Inverse Problems, 27, 2011. N. Rodriguez & A. Bertozzi: Local Existence and Uniqueness of Solutions to a PDE model for Criminal Behavior , M3AS, special issue on Mathematics and Complexity in Human and Life Sciences, Vol. 20, Issue supp01, pp. 1425-1457, 2010.
Related Podcasts AMS - Mathematical Moments Podcast: MM97 - Forecasting Crime
British Applied Mathematics Colloquium 2016 Special J.Dodd: Crop Growth, Conversation with G. Thäter in the Modellansatz Podcast episode 89, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2016. http://modellansatz.de/crop-growth H. Wilson: Viscoelastic Fluids, Conversation with G. Thäter in the Modellansatz Podcast episode 92, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2016. http://modellansatz.de/viscoelastic-fluids A. Hosoi: Robots, Conversation with G. Thäter in the Modellansatz Podcast, episode 108, Department for Mathematics, Karlsruhe Institute of Technologie (KIT), 2016. http://modellansatz.de/robot A. Bertozzi: Crime Prevention, Conversation with G. Thäter in the Modellansatz Podcast, episode 109, Department for Mathematics, Karlsruhe Institute of Technologie (KIT), 2016. http://modellansatz.de/crime-prevention

Robots

Oct 7, 2016 20:36

Description:

This is another conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th April 2016 in Oxford.

Since 2002 Anette Hosoi has been Professor of Mechanical Engineering at MIT (in Cambridge, Massachusetts). She is also a member of the Mathematical Faculty at MIT. After undergraduate education in Princeton she changed to Chicago for a Master's and her PhD in physics.

Anette Hosoi wanted to do fluid dynamics even before she had any course on that topic. Then she started to work as Assistant Professor at MIT where everyone wanted to build robots. So she had to find an intersection between fluid and roboters. Her first project were Robo-snailes with her student Brian Chan. Snails move using a thin film of fluid under their foot (and muscles). Since then she has been working on the fascinating boundary of flow and biomechanics.

At the BAM Colloquium she was invited for a plenary lecture on "Marine Mammals and Fluid Rectifiers: The Hydrodynamics of Hairy Surfaces". It started with a video of Boston dynamics which showed the terrific abilities some human-like robots have today. Nevertheless, these robots are rigid systems with a finite number of degrees of freedom. Anette Hosoi is working in control and fluid mechanics and got interested in soft systems in the context of robots of a new type. Soft systems are a completely new way to construct robots and for that one has to rethink everything from the bottom up.You are a dreamer she was told for that more than once.

For example Octopuses (and snails) move completely different to us and most animals the classcallly designed robots with two, four or more legs copy. At the moment the investigation of those motions is partially triggered by the plausible visualization in computer games and in animated movie sequences. A prominent example for that is the contribution of two mathematicians at UCLA to represent all interactions with snow in the animated movie Frozen. The short verison of their task was to get the physics right when snow falls off trees or people fall into snow - otherwise it just doesn't look right.

To operate robots which are not built with mechanical devices but use properties of fluids to move one needs valves and pumps to control flow. They should be cheap and efficient and without any moving parts (since moving parts cause problems). A first famous example for such component is a fluid rectifier which was patented by Nicola Tesla in the 1920ies. His device relied on inertia. But in the small devices as necessary for the new robots there are no inertia. For that Anette Hosoi and her group need to implement new mechnisms. A promising effect is elasticity - especially in channels. Or putting hair on the boundary of channels. Hair can cause asymmetric behaviour in the system. In one direction it bends easily with the flow while in the opposite direction it might hinder flow.

While trying to come up with clever ideas for the new type of robots the group found a topic which is present (almost) everywhere in biology - which means a gold mine for research and open questions. Of course hair is interacting with the flow and not just a rigid boundary and one has to admit that in real life applications the related flow area usually is not small (i.e. not negligible in modelling and computations). Mathematically spoken, the model needs a change in the results for the boundary layer. This is clear from the observations and the sought after applications. But it is clear from the mathematical model as well. At the moment they are able to treat the case of low Reynolds number and the linear Stokes equation which of course, is a simplification. But for that case the new boundary conditions are not too complicated and can be treated similar as for porous media (i.e. one has to find an effective permeability). Fortunately even analytic solutions could be calculated.

As next steps it would be very interesting to model plunging hairy surfaces into fluids or withdrawing hairy surfaces from fluids (which is even more difficult). This would have a lot of interesting applications and a first question could be to find optimal hair arrangements. This would mean to copy tricks of bat tongues like people at Brown University are doing.


References I. E. Block Community Lecture: Razor Clams to Robots: The Mathematics Behind Biologically Inspired Design , A. Hosoi at SIAM Annual meeting, 2013. B. Chan, N.J. Balmforth and A.E. Hosoi: Building a better snail: Lubrication and adhesive locomotion, Phys. Fluids, 17, 113101, 2005.

Erasmus

Sep 30, 2016 35:32

Description:

Vojtěch Cvrček ist im Herbst 2013 als Erasmusstudent von der CTU in Prag nach Karlsruhe ans KIT entsandt worden. Er hatte schon in der Grundschule Deutsch gelernt und wollte seine Sprachkenntnisse direkt in Deutschland verbessern. Deshalb wollte er auch ein ganzes Jahr bleiben (nicht nur ein Semester). Das bedeutete insbesondere, dass er die Einarbeitung in seine Masterarbeit schon in Karlsruhe beginnen müsste und deshalb ein Thema und ein Betreuerteam finden müsste, dass dies ermöglicht.

Seine deutsche Wunschstadt war eigentlich Berlin - wegen der räumlichen Nähe zur Prag und weil ihm die Stadt gut gefiel. Leider gab es im Rahmen des Erasmusprogrammes aber keine Möglichkeit für ihn, dort sein Mathematikstudium fortzuführen. Infrage kamen dafür nur die TU Hamburg, TU Darmstadt und das KIT in Karlsruhe. Unter seinen Professoren und Mitstudenten in Prag war das KIT in Karlsruhe nicht gut bekannt, aber ein ordentlicher Fußballverein war in seinen Augen ein Pluspunkt für Karlsruhe.

Nach der Entscheidung für Karlsruhe suchte er nach persönlichen Ansprechpartnern. Er fand die Projekte von Matthias Krause im Internet und ihn begeisterte insbesondere die dort vorgestellte Zusammenarbeit der Mathematik mit dem studentischen Projekt KAraceing. Deshalb schrieb er Matthias Krause eine e-mail und stellte sich als künftiger Erasmusstudent vor, der den einen oder anderen Rat einholen wollen würde. Er fand ein offenes Ohr und geeignete Lehrveranstaltungen wurden entsprechend seinen Zielen für das Jahr in Karlsruhe zusammengestellt. Für die Zeit in Karlsruhe und darüber hinaus hatte er damit einen Mentor, der ihn schließlich auch in seine Arbeitsgruppe integriert hat. Vojtěch Cvrček wurde studentische Hilfskraft und unterstützte Matthias Krause zunächst in der Lehre bis er in der Lage war, das Softwareprojekt OpenLB mit weiter zu entwickeln. Die Gruppenmeetings des Teams um OpenLB gehörten selbstverständlich zu seiner Arbeit und der Austausch in der Gruppe war dadurch sehr intensiv.

Deshalb sieht Vojtěch Cvrček das Jahr in Karlsruhe als das beste Jahr in seinem Studium an. Er hat hier sehr viel gelernt und tolle Unterstützung durch Mitstudierende gefunden.

Als Vorlesungen entschied er sich für Mathematische Modellbildung und Simulation in der Praxis, Partielle Differentialgleichungen, das Projektorientierte Praktikum, Inverse Probleme und Paralleles Rechnen. Anschließend stand die Vorbereitung der Masterarbeit zum Thema Mischung von nichtnewtonschen Fluiden im Vordergrund. Nichtnewtonsche Fluide finden sich überall, z.B. auch in der Medizin (hier vor allem das Fluid Blut). Seine Professor in Prag hat schon lange Beziehung zum Institut für experimentelle Medizin, deshalb war dieses Thema für beide Seiten (Karlsruhe und Prag) sehr interessant.

Seine Vorkenntnisse und der Wunsch, die deutschen Sprache wirklich zu sprechen, erwiesen sich als Vorteil, weil Vojtěch Cvrček so leichter Kontakte knüpfen konnte zu den deutschen Studierenden und Mitarbeitern. Nach einer Anfangszeit mit einer Unterkunft am Stadtrand von Karlsruhe konnte er im Studentenwohnheim HaDiKo (kurz für Hans-Dickmann-Kolleg) einziehen, was einem reichhaltiges sozialen Leben zur Folge hatte und auch vielen Kontakten zu nicht-Mathematikern.

Nach erfolgreichem Abschluss des Studiums in Prag wollte er gern in Deutschland eine Arbeit als Ingenieur finden. Dafür hat er auch die Karrieremessen des KIT genutzt, um direkt Kontakt zu Firmen zu knüpfen. Das hat schließlich dazu geführt, dass er sogar die Wahl zwischen verschiedenen Angeboten hatte. Er wird nun als Mathematiker im Maschinenbau tätig sein in der Nähe von Karlsruhe.

Referenzen:

OpenLB Open source lattice Boltzmann code I. Wayand: Palo Alto, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 106, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.

Palo Alto

Sep 23, 2016 15:36

Description:

Isabell Wayand ist eine Studentin im Masterstudiengang Mathematik am KIT. Sie hat an verschiedene Lehrveranstaltungen in der angewandten Mathematik teilgenommen, deren Dozentin Gudrun war. Anlass des Podcast-Gespräches war ein 6-monatiges Praktikum, dass Frau Wayand kürzlich bei der Firma Bosch am Sitz in Palo Alto im US-Bundesstaat Kalifornien absolviert hat.

In der Arbeitsgruppe in der Frau Wayand beschäftigt war, wird Software entwickelt, die Einspritzsysteme simulieren kann, d.h. es geht um die Nachbildung komplizierter physikalischer Vorgänge in denen die Strömung eines Benzin bzw. Diesel-Luft-Gemisches und das erzeugte Spray in einer komplexen Geometrie interagieren. Ihre Aufgabe bestand darin, die dort benutzte Implementierung von Zustandsgleichungen in der Strömungssimulation zu verbessern.

Ein konkreter Teilaspekt dabei war, wie unter Kenntnis von Dichte und Temperatur der zugehörige Druck berechnet wird. Die vorhandene Implementierung sollte deutlich beschleunigt werden und die Fluid-Eigenschaften realistischer. Der hierfür gewählte Weg war schließlich, die Zustandsgleichung als Tabelle von Tripeln zu hinterlegen. Das führte auf Tabellen mit mehreren 100.000 bis einige Millionen abgespeicherten Zuständen (als Triple von Dichte, Temperatur und Druck). Selbst das ist noch nicht genau genug für alle Berechnungen, weshalb für Zwischenwerte noch interpoliert werden muss. Durch die großen Tabellen (bzw. die vielen hinterlegten Werte) sind die so zu überbrückenden Lücken jedoch klein genug, dass eine einfache lineare Interpolation ausreicht.

Ein wichtiger Aspekt hierbei ist die Organisation der Tabellen, um einen schnellen Zugriff auf das richtige Datentripel zu gewährleisten. Die Wahl war schließlich ein Octree, damit die Daten schnell gefunden werden können.

Ein Grund sich für das Praktikum in Palo Alto zu bewerben, war Frau Wayands Wunsch im Studium schon Auslandserfahrung zu sammeln. Da sie ein Praktikum bei Bosch in Stuttgart mit guten Erfahrungen beendet hatte, kam es ihr sehr gelegen, dass es von dort die Beziehungen nach Palo Alto in die Themen der Strömungsrechnung gab.

In Silikon Valley sind Arbeitsgruppen stets sehr international besetzt. In ihrer Gruppe waren es z.B. Mitarbeiter aus Indien, China, Korea und Frankreich, neben nur einem US-Amerikaner. So muss man natürlich kulturelle Unterschiede überbrücken.

In Bezug auf die inhaltliche Arbeit war Frau Wayand sehr zufrieden. Sie bekam mehrfach Rückmeldung von ihrem Betreuer, nachdem sie ihren Arbeitsstand im Gruppen-Meeting vorgestellt hatte. Am Ende gab es ein Feedbackgespräch mit Personalabteilung und Betreuer (inkl. Arbeits-Zeugnis). Sie fühlte sich durch die Ausbildung in Karlsruhe gut auf die Aufgaben im Praktikum vorbereitet.

Durch das Studentenbindungsprogramm bei Bosch wurde sie stark unterstützt. Das betraf finanzielle Hilfe als auch Hilfe bei den Formalitäten. Außerdem wurde in Palo Alto sogar eine Wohnung wurde gestellt, die sie mit einer anderen Praktikantin geteilt hat.

Ihr Fazit nach der Herausforderung: Man sollte sich das durchaus zutrauen.


Verwandte Podcast C.Straub: Injektoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 8, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/injektoren

Adiabatische Quantencomputer

Sep 15, 2016 1:19:16

Description:

Im Anschluss ihres Erasmus-Auslandsjahr in Lyon hat sich Alexandra Krause als angehende Physikerin in den Bereich der Quanteninformatik vertieft. Dazu hat sie im Rahmen der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe über Quantum Speedup (video) vorgetragen und Zeit gefunden, uns auch im Podcast etwas über das Thema zu erzählen.

Im Gegensatz zur klassischen Physik gelten in der Quantenmechanik eigene Regeln: So geht es hier um Teilchen in der Größenordnung von Atomen, wo die Begriffe Teilchen und Welle verschwimmen und der quantenmechanische Zustand unbeobachtet nur noch als Zustandsgemisch beschrieben werden kann.

Genau diese Eigenschaft will man sich beim Quantencomputer zu Nutze machen, wo gegenüber dem klassischen digitalen Computer, der immer auf einzelnen festen Zuständen in Bits mit Logikgattern rechnet, der Quantenrechner pro Schritt in Qubits auf allen Zuständen gleichzeitig operiert. Das eigentliche Ergebnis erhält man dort erst bei der Messung, wodurch sich der reine Zustand des Quantensystems einstellt.

Der Grover-Algorithmus ist eine bekannte Anwendung für einen Quantencomputer, der Datenbanken schneller als klassische Verfahren durchsuchen kann. Der Shor-Algorithmus kann hingegen mit einer Quanten-Fouriertransformation in polynomialer Zeit Zahlen in ihre Primfaktoren zerlegen kann. Damit werden viele assymetrische Kryptoverfahren wie das RSA-Verfahren obsolet, da sie auf der Schwierigkeit der klassischen Faktorisierung basieren. Shor hat in der gleichen Publikation auch ein Verfahren zur effizienten Berechnung von diskreten Logarithmen auf Quantencomputern veröffentlicht, so dass auch Kryptoverfahren auf elliptischen Kurven durch Quantencomputer gebrochen werden, die neben dem RSA-Verfahren Basis für viele Kryptowährungen sind.

Zum jetzigen Zeitpunkt ist es der Experimentalphysik noch nicht gelungen, allgemeine Quantensysteme in einer Größe zu erschaffen, die für sinnvolle Anwendungen der Verfahren erforderlich wären. Die Schwierigkeit liegt darin, den Quantenzustand einzelner Qubits von der Umwelt abzukoppeln und nur für die Berechnung zu verwenden, wenn doch alles in der Umgebung in Bewegung ist. In der Größe weniger Qubits, die allgemeine Quantencomputer bisher erreichen konnten, wurden Zahlen wie 15 und 21 erfolgreich faktorisiert.

Eine Hoffnung besteht hier auf dem adiabatischen Quantencomputer auf Basis adiabatischen Theorems, der von der Firma D-Wave Systems gebaut, und 2011 mit unvergleichlich vielen 128 Qubits auf den Markt gebracht wurde. Das Problem ist dabei, dass adiabatischen Quantencomputer im normalen Arbeitszustand keine universellen Quantencomputer sind, und hauptsächlich Optimierungsprobleme lösen können.

Universelle Quantencomputer können im Circuit model anschaulich jedes herkömmliches Programm abbilden: Jedes klassische Logik-Gatter kann durch Hinzufügen weiterer Ausgänge reversibel werden, und dann als eine unitäre Abbildung oder Matrizen im Quantencomputer realisiert werden. Unitäre Abbildungen sind lineare Abbildungen mit der Eigenschaft, dass sie das komplexe Skalarprodukt zweier Vektoren nach der Abbildung erhalten, d.h. Vektoren behalten die gleiche Länge, und zwei Vektoren behalten den gleichen Winkel zueinander. Der Nachteil des reversiblen Ansatzes ist jedoch, dass dafür womöglich viele Bits benötigt werden, wenn man die Abbildungen nicht zuvor zusammenfassen kann.

Theoretisch kann der adiabatische Quantencomputer auch universell sein, nur ist dazu ideal eine ungestörte Umgebung Voraussetzung, was in Realität nicht erreicht werden kann. Es verbleiben Optimierungsprobleme, die über den Hamiltonoperator abgebildet werden können: physikalische Prozesse möchten den energetisch niedrigsten Zustand zu erreichen. Ein Beispiel sind hier Minimalflächen, wie sie von Seifenhäuten und Seifenblasen angenommen werden- und auch zum Bau des Olympiageländes in München genutzt wurden. Im Schülerlabor für Mathematik in Karlsruhe kann man auch viele Experimente dazu durchführen.

Wenn man ein Optimierungsproblem lösen möchte, so sind lokale Minima ein Problem- in ihrer Umgebung erscheinen sie als Lösung, sie sind es jedoch insgesamt betrachtet nicht. Eine Möglichkeit die lokalen Minima zu umgehen ist das Verfahren des Simulated Annealing. Hier wird durch externe Störquellen begünstigt, dass lokale Minima verlassen werden, um das globale Minimum zu erreichen. In Quantensystemen spielt hier beim Quantum Annealing zusätzlich der Tunneleffekt eine besondere Rolle, wodurch die Störung noch leichter von lokalen Minima hinweg streut. Dadurch ist das Quantum Annealing prinzipiell und aus der Theorie schneller- oder zumindest nicht langsamer- als das Simulated Annealing.

Dabei ist das Quantum Annealing natürlich nur auf einem Quantencomputer effizient umsetzbar. Das ist dabei ein Beispiel für eine Quantensimulation auf einem Quantencomputer in dem Forschungsfeld, das sich mit der Abbildung und Simulation von Quantensystemen befasst.

Damit ist der adiabatische Quantencomputer auf eine kleinere Klasse von lösbaren Problemen beschränkt, jedoch soll er dieses mit einer erheblichen höheren Anzahl von Qubits durchführen können- zur Zeit der Aufnahme waren dies mit dem D-Wave Two etwa 512 Qubits. Die Frage, ob diese adiabatischen Quantencomputer mit dieser großen Anzahl von Qubits wirklich als Quantencomputer arbeiten, wurde wissenschaftlich diskutiert:

Im Artikel Evidence for quantum annealing with more than one hundred qubits legen die Autoren dar, dass der betrachtete adiabatische Quantencomputer starke Anzeichen für die tatsächliche Umsetzung des Quantum Annealing zeigt. In wie weit jedoch nun eine quantenbedingte Beschleunigung feststellen ist, diskutieren T. Rønnow und Mitautoren in der Arbeit Defining and detecting quantum speedup. Sie erhielten das ernüchternde Ergebnis, dass eine Beschleunigung durch Nutzung des betrachteten Quantensystems nicht eindeutig nachgewiesen werden konnte. Dagegen argumentierten V. Denchev et al. in What is the Computational Value of Finite Range Tunneling?, dass eine 100'000'000-fache Beschleunigung mit hoher Wahrscheinlichkeit gegenüber einem Einprozessor-System nachgewiesen werden kann.

Ein Problem bei der Analyse ist, dass die betrachteten Algorithmen für den Quantencomputer in den Bereich der probabilistischen Algorithmen fallen, die Ergebnisse also eine Fehlerwahrscheinlichkeit besitzen, die durch mehrfache Ausführung verringert werden kann. In der Kryptographie werden probabilistische Primzahltests sehr häufig eingesetzt, die auch in diese Klasse der Algorithmen fallen. So wurde im ersten Paper das Verhalten des Quantencomputers in einer Vielzahl von Versuchen mit simulierten Algorithmen verglichen und mit hoher Wahrscheinlichkeit festgestellt, dass der D-Wave-Rechner tatsächlich den Quantum Annealing Algorithmus ausführt.

Über den D-Wave-Rechner ist bekannt, dass die einzelnen Qubits durch supraleitende Ringe abgebildet sind und die beiden Stromlaufrichtungen die superpositionierten Zustände darstellen. Die Kopplung zwischen Qubits und nach außen erfolgt durch Spulen, die über die entstehenden Magnetfelder mit den Strömen in den Ringen interagieren. Die Kopplung zwischen Qubits wird damit durch die parametrisierte Kopplung der Spulen realisiert.

Für klassische Algorithmen und parallelisierte Computersysteme beschreibt der Begriff des Speedup die Effizienzsteigerung durch Nutzung einer erhöhten Parallelisierung. Je nach Algorithmus gibt es nach Amdahls Gesetz logische Grenzen, wo weitere Parallelisierung keine Gewinn mehr erzielt. Entsprechend besteht der Wunsch den Begriff des Quantum Speedup analog zu definieren und nachzuweisen: Diesen Ansatz verfolgten T. Rønnow und Mitautoren und definierten verschiedene Klassen von Quantum Speedup, wobei der adiabatische D-Wave Quantencomputer für sie nur Anzeichen für ein potentielles Speed-up ergab. Das ist ein ernüchterndes Ergebnis, wobei die Autoren klar weiteren Forschungsbedarf sahen.

Hier war das Paper von V. Denchev und Mitautoren eine große Überraschung, wo dem D-Wave 2X Rechner mit hoher Wahrscheinlichkeit eine Beschleunigung von 10^8 nachgesagt wurde. Neben den Annealing-Verfahren kam hier auch Quantum Monte Carlo zum Einsatz. Im Ergebnis erhielten sie für die Annealing-Verfahren ein asymptotisches Speed-Up, das sich für größere Problemstellungen einstellt, für Quantum Monte Carlo eine von der Problemgröße unabhängige Beschleunigung gegenüber einem klassischen Single-core Rechner.

Diese Aussagen trafen aber schnell auf Widerstand und den Nachweis, dass ein im Paper betrachtetes Problem mit anderen Algorithmen teilweise auf einem klassischen Rechner vielfach schneller gelöst werden kann als auf dem Quantencomputer.


Literatur und weiterführende Informationen S. Boixo, et al.: Evidence for quantum annealing with more than one hundred qubits, Nature Physics 10.3: 218-224, 2014. T. Rønnow, et al.: Defining and detecting quantum speedup, Science 345.6195: 420-424, 2014. V. Denchev, et al.: What is the Computational Value of Finite Range Tunneling? arXiv preprint arXiv:1512.02206, 2015. R. Harris, R., et al.: Compound Josephson-junction coupler for flux qubits with minimal crosstalk, Physical Review B 80.5: 052506, 2009. S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor Bernd Fix: Post-Quantum Krypto, Afra-Berlin.de, Vortrag am 13.12.2013. F. Rieger, F. von Leitner: Fnord Jahresrückblick, 32c3, Vortrag am 29.12.2015. S. Aaronson: Google, D-Wave, and the case of the factor-10^8 speedup for WHAT? Blog-Post mit Updates 16.5.2013-16.12.2015. Quantum Annealing Solver für den Laptop

Lehramtsausbildung

Aug 12, 2016 1:01:49

Description:

Im Bundesland Baden-Württemberg (BW) ist die Ausbildung von Lehrerinnen und Lehrern für verschiedene Schulformen unterschiedlich geregelt. Für Lehrpersonen, die am Gymnasium Schülerinnen und Schüler bis zum Abitur begleiten wollen, ist die Ausbildung an den Universitäten vorgesehen, alle anderen erhalten ihre Ausbildung an den Pädagogischen Hochschulen (PH). Auch an unsere Fakultät kommen Studierende mit dem Ziel, später an Gymnasien Mathematik zu vermitteln. Es ist deshalb höchste Zeit, auch einmal über die Lehramtsausbildung an unserer Fakultät zu reden. Andreas Kirsch begleitet die Organisation der Lehramtsstudiengänge schon viele Jahre und war deshalb Gudruns Wunsch-Gesprächspartner zu diesem Thema.

Prinzipiell müssen Lehramtskandidaten mindestens zwei Fächer studieren, weshalb ihre Ausbildung (und ihr Abschluss) nur zum Teil in den Händen unserer Fakultät liegen kann. Generell ist der Lehramtsstudiengang deshalb auch durch eine Ordnung geregelt, die für das ganze KIT (alle Fakultäten) gilt und sich an klaren Vorgaben des BW-Kultusministeriums orientieren muss. Hier wird dann auch festgelegt, wie groß der Anteil von pädagogischen/psychologischen Veranstaltungen ist, der neben den beiden Fachstudien-Anteilen absolviert werden muss.

Viele Jahrzehnte war die Gymnasial-Lehramts-Ausbildung in BW an den Universitäten so geregelt, dass in den ersten Jahren das Studium Diplom und Lehramt Mathematik quasi identisch waren - und das in zwei Fächern. Die Idee dahinter war, dass Personen, die das Bild von Mathematik in den Köpfen unserer Kinder prägen, selbst kompetente Mathematiker und darüber hinaus von ihrem Fach begeistert sind.

Das Lehramtsstudium endete mit dem ersten Staatsexamen und wurde über eine anschließende Schulpraxis-orientierte Ausbildung im Referendariat fortgesetzt, die mit dem zweiten Staatsexamen beendet wurde. Vor Ablegen des ersten Staatsexamens war auch das Anfertigen einer wissenschaftlichen Arbeit in einem der Unterrichtsfächer oder in Pädagogik verpflichtend.

Schon immer gehörte zur Lehramtsausbildung auch die Vermittlung von Didaktik im Fach Mathematik. Da es in BW keine Professuren für Didaktik der Mathematik an den Universitäten gibt, wurden und werden für diese Veranstaltungen häufig Gastdozenten gewonnen.

Seit 2008 änderte sich diese traditionelle Lehrerbildung an den Universitäten in BW Stück für Stück in verschiedenen Aspekten grundlegend. Zunächst wurde der Anteil der Fachdidaktik sehr stark erhöht (was zwangsläufig bedeutet, dass sich der wissenschaftliche Anteil im Faches verringerte, da das Studium nicht verlängert wurde) - inklusive eines verpflichtenden Praxis-Semesters von 13 (inzwischen 12) Wochen an einer Schule. Mit Hilfe dieses Praktikums können angehende Lehrpersonen rechtzeitig ausprobieren, ob der Schulalltag "etwas für sie ist".

Etwas später wurden die Lehrinhalte in sogenannte Module gegliedert, die in der Regel schon im Verlauf des Studiums (nach Absolvieren des Moduls) geprüft werden. Damit wurde die Rolle des ersten Staatsexamens gründlich verändert. Seit dem Studienbeginn im Wintersemester 2015/16 ist der Studiengang aufgeteilt in einen ersten Teil, dem Bachelor of Education, und einen zweiten Teil,der zum Abschluss Master of Education führt. Der Masterabschluss hat dabei das erste Staatsexamen vollständig abgelöst. Wenn man heute den wissenschaftlichen Mathematik-Anteil des Studiums Lehramt Mathematik anschaut, ist er etwa so hoch wie in den Bachelor-Studiengängen Mathematik.

In Karlsruhe haben wir einige dieser Veränderungen in der Lehramts-Ausbildung dadurch aufgefangen, dass die Abteilung für Didaktik vergrößert wurde und sehr erfinderisch neuartige fachdidaktische Angebote entwickelte (und entwickelt), die nicht nur den Studierenden etwas bringen. In enger Zusammenarbeit mit den Schulen in Karlsruhe und dem Schülerlabor können bei uns angehende Lehrpersonen z.B. mit besonders interessierten Schülern arbeiten oder anhand von Projekten im Schülerlabor Unterricht in sehr unterschiedlichen Formen entwickeln und erproben. Es wurden außerdem einige speziell für die Lehramtsstudierenden konzipierte Vorlesungen eingeführt.

Andreas Kirsch ist seit vielen Jahren als Professor an der Fakultät für Mathematik in Karlsruhe tätig. Zu den Aufgaben der von ihm geleiteten Arbeitsgruppe gehört die Mathematikausbildung von Maschinenbauern, Bauingenieuren, Verfahrenstechnikern und den angehenden Ingenieuren in verwandten Gebieten. Sein mathematisches Spezialgebiet sind inverse Probleme. Das ist ein sehr komplexes Gebiet zwischen Analysis und Numerik mit vielen Anwendungen. Einige dieser Anwendungen waren auch schon Gesprächsthema in unserem Podcast:

Unsichtbarkeit, Erdölsuche, Erdbeben und Optimale Versuchsplanung, Splitting Waves. Literatur und weiterführende Informationen Antworten auf oft gestellte Fragen rund ums Lehramtsstudium in Karlsruhe Studienberatung am KIT und in der Fakultät zum Lehramtsstudium Zentrum für Lehrerbildung am KIT Lehrer online in BW Landes Bildungsserver BW

Schülerlabor

Aug 5, 2016 25:48

Description:

Ernestina Dittrich ist Studiendirektorin und hat Mathematik, Physik und Informatik am Gymnasium unterrichtet. Sie arbeitete außerdem am Studienseminar in Karlsruhe, ist Fachberaterin am Regierungspräsidium Karlsruhe und wurde 2005 an unsere Fakultät geholt, um die Abteilung für Didaktik zu verstärken und neue Ideen zu verwirklichen. Dieses Jahr geht sie in den Ruhestand und so wurde es höchste Zeit, ein Gespräch über das Schülerlabor Mathematik und die Entwicklung bis heute zu führen.

Frau Dittrich hatte sich schon lange vor ihrem Wechsel an unsere Fakultät mit der Idee getragen, dass wie in der Physik auch in der Mathematik Experimente den Stoff auf neuartige Weise zugänglich machen könnten. Ist das Schulfach Mathematik meist polarisierend also entweder Horror- oder Lieblingsfach so stünde doch ein entdeckender und spielerischer Zugang ohne Formeln allen gleichermaßen offen. Das wurde nun seit 2005 an unserer Fakultät Stück für Stück verwirklicht.

Insgesamt wurden 90 mathematische Experimente zusammengetragen. Es war das erste seiner Art in Baden Württemberg und lange Zeit auch das einzige. Von der 3.-12. Klasse sind Schülerinnen und Schüler aller Schulformen oder auch Lehrergruppen bzw. Referendare vom Studienseminar und Lehramtsstudierende willkommen. An je einem Freitag Nachmittag im Monat steht die Tür sogar für alle interessierten offen. Darüber hinaus gehen Exponate auch auf Reisen, z.B. zur Kinderuni, zum Wissenschaftsfestival EFFEKTE im Schlosspark oder zu anderen Wissenschaftsfesten wie im Luisenpark in Mannheim oder im Europapark Rust. Die weiteste Reise führte bisher zum Science Festival nach Abu Dhabi.

Das Schülerlabor wird sehr gut angenommen. Schon über 1000 Schulklassen haben es besucht. In der Regel dauert eine Veranstaltung 90 min. Am Anfang steht eine Einführung in drei wichtige Experimente - dann dürfen sich alle frei bewegen. Für Fragen gibt es stets Betreuung durch Mitarbeiterinnen der Abteilung für Didaktik. Die Lehrpersonen der Schulklassen sind außerdem mit dabei. Alle Versuche sind kurz und knapp beschrieben und es gibt einen Kasten mit Tipps, wenn man allein einfach nicht weiterkommt. Natürlich geht es dabei meist lebhaft zu: Die Schülerinnen und Schüler unterhalten sich über Lösungsversuche, es gibt Jubelgeschreie, wenn etwas geklappt hat und an einigen Stationen müssen sich die Kinder auch bewegen, um die Aufgaben zu lösen.

Nachdem das Labor für die ersten Jahre sein Domizil in der Hertzstraße hatte, ist es nun seit dem Umzug der Fakultät ins renovierte Kollegiengebäude Mathematik endlich auch für alle Mitarbeiter und Gäste der Fakultät sichtbar und spürbar, welche Arbeit hier stattfindet.

Im Unterschied zu ähnlichen Angeboten in Museen ist die Zusammenstellung der Experimente und Exponate didaktisch nach verschiedenen Aspekten durchdacht. Z.B. gibt es viele verschiedenartige Angebote rings um das Thema platonische Körper (inkl. eines Workshops).

Während des Gespräches wurden folgende Exponate angesprochen:

Die Unendlichkeit (realisiert mit Spiegeln) Ich bin eine Funktion (ein Bewegungsspiel) Glockenkurve (Normalverteilung als Grenzprozess für Bernoulli-Experimente) Minimalhäute (Seifenhäute um Gestelle aus platonischen Körpern)

Der Besuch im Schülerlabor ist kostenlos. Die Einrichtung und die nötigen Mitarbeiterstellen wurden bisher vor allem von der Hector Stiftung gefördert. Inzwischen gibt es von der Abteilung für Didaktik noch eine ganze Anzahl weiterer Angebote, die zum Teil auch das Schülerlabor nutzen. So ist das Labor ein Lehr-Lern-Labor in der Ausbildung der Lehramtsstudierenden, d.h. die Experimente werden in der Fachdidaktik-Ausbildung verwendet, um didaktische Konzepte für die Umsetzung der mathematischen Sachverhalte und Kompetenzen im Unterricht zu entwickeln.

Es gibt bisher 15 Workshops für verschiedene Altersstufen (Dauer je 90 min), die Schulklassen und andere Gruppen buchen können. Die sogenannten Mathekids (7./8. Klasse) und Matheprofis (9./10. Klasse) sind ein Schuljahr lang jede Woche für 90 min in der Fakultät, um im Rahmen der Begabtenförderung Workshops zu erleben. Diese werden von zwei erfahrenen Lehrkräften und von Lehramtsstudierenden gehalten. Die Studierenden gewinnen Praxiserfahrung während ihrer Fachdidaktikausbildung. Die Kinder entwickeln durch kleine Forschungsaufträge dabei auch neue Workshops selbst. Für zwei dieser Projekte haben die Gruppen sogar einen Preis für junge Forscher - den sogenannten OsKarl gewonnen.

Literatur und weiterführende Informationen Alle Schülerlabore am KIT Begabtenförderung am KIT Fotos vom girls' day 2015 im Schülerlabor

Metrische Geometrie

Jul 29, 2016 42:41

Description:

Petra Schwer ist seit Oktober 2014 Juniorprofessorin an unserer Fakultät. Sie arbeitet im Institut für Algebra und Geometrie in der Arbeitsgruppe Metrische Geometrie. Ab Oktober 2016 startet in diesem Institut ein neues Graduiertenkolleg mit dem Titel Asymptotic Invariants and Limits of Groups and Spaces und Petra Schwer freut sich darauf, dort viele mit ihrer Begeisterung anstecken zu können. Ihr Weg in die Algebra war nicht ganz direkt: Sie hat zunächst Wirtschaftsmathematik in Ulm studiert. Ein Wechsel an die Uni Bonn ebnete den Weg ins etwas abstraktere Fahrwasser. Zwei Ausflüge in die Industrie (zwischen Diplom und Promotionszeit und in der Postdoc-Phase) haben ihre Entscheidung für die akademische Mathematik bekräftigt.

Im Gegensatz zur Differentialgeometrie, die von Ihrem Ursprung her auf analytischen Methoden und Methoden der Differentialrechnung (wie zum Beispiel des Ableitens) beruht, untersucht die Metrische Geometrie Mengen mit Abstandsfunktion. Darunter fallen auch die klassischen Riemannschen Geometrien, aber auch viel allgemeinere geometrische Strukturen, wie zum Beispiel Gruppen oder Graphen. Eine Metrik ist nichts anderers als eine Funktion, die einen Abstand zwischen zwei Punkten definiert.

Die Euklidische Geometrie (in zwei bzw. drei Dimensionen) ist sicher allen aus der Schule bekannt. Sie ist ein Beispiel eines Geometriemodells in der metrischen Geometrie. Euklid versuchte erstmals Geometrie von Ihren Grundbausteinen her zu beschreiben. Er hat sich gefragt: Was ist ein Punkt? Was ist eine Gerade? Wie lässt sich der Abstand eines Punktes zu einer Geraden definieren? Schließlich stellte er eine Liste von grundlegenden Objekten sowie deren Eigenschaften und Beziehungen auf (Axiome genannt) die eine Geometrie erfüllen soll. Diese Axiome sind dabei die Eigenschaften, die sich nicht aus anderen ableiten lassen, also nicht beweisbar sind. Eines dieser Axiome besagte, dass durch einen festen Punkt genau eine Gerade parallel zu einer vorgegebenen anderen Geraden verläuft. Es entbrannte ein Jahrhunderte dauernder Streit darüber, ob sich dieses Parallelenaxiom aus den anderen aufgestellten Axiomen ableiten lässt, oder ob man diese Eigenschaft als Axiom fordern muss. Sehr viel später wurde klar, dass der Streit durchaus einen wichtigen und tief liegenden Aspekt unserer Anschauungsgeometrie berührte. Denn es wurden gleich mehrere Mengen (mit Abstandsfunktion) entdeckt, in denen diese Eigenschaft nicht gilt. Deshalb nannte man die Geometrien, in denen das Parallelenaxiom nicht gilt nichteuklidische Geometrien.

Ein sehr nahe liegendes Beispiele für nichteuklidische Strukturen ist z.B. die Kugel-Oberfläche (damit auch unsere Erdoberfläche) wo die euklidische Geometrie nicht funktioniert.

In der Ebene ist der traditionelle Abstand zwischen zwei Punkten die Länge der Strecke, die beide Punkte verbindet. Das lässt sich im Prinzip auf der Kugeloberfläche imitieren, indem man einen Faden zwischen zwei Punkten spannt, dessen Länge dann anschließend am Lineal gemessen wird. Spannt man den Faden aber "falschrum" um die Kugel ist die so beschriebene Strecke aber nicht unbedingt die kürzeste Verbindung zwischen den beiden Punkten.

Es gibt aber neben der klassischen Abstandsmessung verschiedene andere sinnvolle Methoden, einen Abstand in der Ebene zu definieren. In unserem Gespräch nennen wir als Beispiel die Pariser Metrik (oder auch SNCF oder Eisenbahnmetrik). Der Name beschreibt, dass man im französischen Schnellzugliniennetz nur mit umsteigen in Paris (sozusagen dem Nullpunkt oder Zentrum des Systems) von Ort A nach Ort B kommt. Für den Abstand von A nach B müssen also zwei Abstände addiert werden, weil man von A nach Paris und dann von Paris nach B fährt. Das verleiht der Ebene eine Baumstruktur. Das ist nicht nur für TGV-Reisende wichtig, sondern gut geeignet, um über Ordnung zu reden. Ebenso sinnvoll ist z.B. auch die sogenannte Bergsteiger-Metrik, die nicht allein die Distanz berücksichtigt, sondern auch den Aufwand (bergauf vs. bergab). Damit ist sie aber in den relevanten Fällen sogar asymmetrisch. D.h. von A nach X ist es "weiter" als von X nach A, wenn X oben auf dem Berg ist und A im Tal. Analog ist es wenn man mit dem Boot oder schwimmend mit bzw. gegen die Strömung oder den Wind unterwegs ist. Dann misst man besser statt der räumlichen Distanz die Kraft bzw. Energie, die man für den jeweiligen Weg braucht.
Für Karlsruher interessant ist sicher auch die KVV-Metrik, die wie folgt beschrieben wird: Um den Abstand von einem Punkt A zu einem anderen Punkt B der Ebene zu messen, läuft man von A und B senkrecht zur x-Achse (und trifft diese in Punkten A', bzw B') und addiert zu diesen beiden Abständen den Abstand von A' zu B'. Anschaulich gesprochen muss man also immer erst von A zur Kaiserstrasse, ein Stück die Kaiserstraße entlang und dann zu B. Eben so, wie die KVV ihre Strecken plant.

Zwischen einer Ebene und z.B. der Kugeloberfläche gibt es einfach zu verstehende und doch wichtige geometrische Unterschiede. Eine Strecke in der Ebene läßt sich z.B. in zwei Richtungen unendlich weit fortsetzen. Auf der Kugeloberfläche kommt nach einer Umrundung der Kugel die Verlängerung der Strecke an dem Punkt wieder an, wo man die Konstruktion begonnen hat. D.h. insbesondere, dass Punkte auf einer Kugeloberfläche nicht beliebig weit voneinander entfernt sein können. Es gibt außerdem genau einen Punkt, der genau gegenüber liegt und unendlich (!) viele kürzeste Wege dorthin (in jeder Richtung einen). Verblüffend ist dabei auch: So verschieden sich Ebene und Kugeloberfläche verhalten, in einer fußläufigen Umgebung jedes Punktes fühlt sich die Erdoberfläche für uns wie ein Ausschnitt der Ebene an. Mathematisch würde man sagen, dass sich eine Kugel lokal (also in einer sehr kleinen Umgebung) um einen Punkt genauso verhält, wie eine Ebene lokal um einen Punkt. Die Krümmung oder Rundung der Kugel ist dabei nicht spürbar. Versucht man die gesamte Kugel auf einer ebenen Fläche darzustellen, wie zum Beispiel für eine Weltkarte, so kann dies nur gelingen, wenn man Abstände verzerrt. Für unsere ebenen Darstellungen der Erdkugel als Landkarte muss man also immer im Hinterkopf behalten, dass diese (zum Teil stark) verzerrt sind, d.h. Längen, Winkel und Flächen durch die ebene Darstellung verändert werden.

Ein wichtiges Konzept zur Unterscheidung von (z.B.) Ebene und Kugeloberfläche ist die eben schon erwähnte Krümmung. Es gibt verschiedene Definitionen - insbesondere, wenn man Flächen eingebettet im dreidimensionalen Raum untersucht. Dabei hat ein flachgestrichenes Blatt Papier keine Krümmung - eine Kugeloberfläche ist gekrümmt. Um das formal zu untersuchen, werden Tangentialflächen an Punkte auf der Oberfläche angelegt. In einer kleinen Umgebung des Berührpunktes wird die Abweichung der Tangentialebene von der Oberfläche betrachtet. Bei der Kugel liegt die Kugeloberfläche immer auf einer Seite von der Tangentialebene. Das muss nicht so sein. Die Tangentialfläche kann z.B. in einem Sattelpunkt die zu untersuchende Fläche durchdringen - d.h. in unterschiedliche Richtungen ist die Krümmung entweder positiv oder negativ.

Man braucht aber eigentlich gar keine Tangentialflächen, denn auch Winkelsummen verraten uns etwas über die Krümmung. In der Ebene ergeben die drei Innenwinkel jedes Dreiecks zusammen addiert immer 180 Grad. Auf der Kugel, also auf einer gekrümmten Fläche, sind es immer mehr als 180 Grad. Legt man zum Beispiel einen Punkt in den Nordpol und zwei weitere so auf den Äquator, dass die Verbindungsstrecken zum Nordpol einen Winkel von 90 Grad einschließen, so hat das entstehende Dreieck eine Winkelsumme von 270 Grad.
Etwas komplexer ist die Situation bezüglich Krümmung auf einem Torus (der sieht aus wie ein Schwimmreifen oder Donut). Betrachtet man das lokale Krümmungsverhalten in Punkten auf der Donut-/Torusoberfläche ist sie außen so gekrümmt wie eine Kugel, innen sieht sie aber aus wie eine Sattelfläche.
Es läßt sich aber auch ein abstraktes Modell des Torus konstruieren, das genauso flach, wie die euklidische Ebene ist. Dazu wähle in der Ebene ein Quadrat mit fester Seitenlänge und klebe gedanklich die gegenüberliegenden Seiten (also oben und unten, sowie links mit rechts) zusammen. Man erhält so ein "periodisches" Quadrat: Wenn man auf einer Seite hinauswandert, kommt man gegenüber an der gleichen Stelle wieder in das Quadrat hinein. Dieses Objekt ist topologisch ebenfalls ein Torus, hat aber, weil das Quadrat Teil der Ebene ist, Krümmung 0.

Literatur und weiterführende Informationen D. Hilbert, S. Cohn-Vossen: Anschauliche Geometrie, eine sehr schöne, (in weiten Teilen) auch mit wenig mathematischen Vorkenntnissen gut verständliche Einführung in viele verschiedene Bereiche der Geometrie. D. Burago, Y. Burago, S. Ivanov: A Course in Metric Geometry, eines der Standardlehrbücher über metrische Geometrie. Euklid, Elemente, Digitale Version der 5 Bücher von Euklid. Gromov: Metric Structures for Riemannian and Non-Riemannian Spaces. Das "grüne Buch" - Kursnotizen einer Vorlesung von Gromov, die später in Buchform gebracht wurden.

Schulwegoptimierung

Jul 22, 2016 36:29

Description:

Sven Müller ist Professor für Verkehrsbetriebswirtschaft im Studiengang Verkehrssystemmanagement an der HTW hier in Karlsruhe.

Im Rahmen seiner Promotion an der TU Dresden in der Gruppe von Knut Haase begann er der Frage nachzugehen, welche Faktoren die Verkehrsmittelwahl für den Schulweg beeinflussen. Hintergrund dieser Frage war, dass zu der Zeit in Dresden die Schließung von Schulstandorten heiß diskutiert wurde. Die Notwendigkeit von Schulschließungen war dabei nicht umstritten, jedoch welche konkrete Variante die für alle beste Lösung darstellen würde. Hier war die Diskussion emotional stark aufgeladen, d.h. ein Modell, das bei der Planung des Schulnetzes für objektive Informationen sorgt, wäre ganz besonders hilfreich. Am besten mit klaren Empfehlungen für optimale Lösungen in Bezug auf Schulwege und deren Kosten.

Der naheliegende und auch herkömmliche Indikator für so ein Modell ist eine Distanzminimierung. Dadurch lassen sich objektive Aussagen zu minimalen Transportkosten für die Schüler ermitteln. Jedoch stellte sich schnell heraus, dass verlässliche Aussagen dazu fehlten, welche Verkehrsmittel die Schüler anteilig wählen und wieso. Ebenso welche Schulen die Schüler selbst wählen würden und wieso. Deshalb war ein wichtiger Ausgangspunkt für das Forschungsthema eine sehr groß angelegte Schüler-Befragung, die von den Studierenden im Rahmen eines Seminares geplant und durchgeführt wurde. Durch das große Engagement war die Stichprobe schließlich sehr groß. Es wurden dabei Fragebögen in fast allen Schulen verteilt und die Ergebnisse in einer selbst konzipierten Datenbank gesammelt - gut aufbereitet für eine anschließende Auswertung und Optimierung.

So war es möglich, aus diesen Daten Prognosen zur Verkehrsmittelwahl in Abhängigkeit von Distanz und Verkehrsmitteloptionen zu erstellen und über verschiedene Schließungsszenarien eine optimale Verteilung der Schulen (in Bezug auf Kosten für die Stadt) zu ermitteln.

All das floß auch in die Promotion von Sven Müller ein. Als wichtiges Problem für die mathematische Behandlung der Optimierung erwies sich, dass die Optimierungslösung auf die Daten zurückwirkt. Das führt auf ein dynamisches Problem, das mit herkömmlichen Methoden nicht behandelt werden kann. Auch bei der ÖPNV-Planung von optimierten Liniennetzen tritt das Problem auf: Kürzere Reisezeiten und mehr Direktverbindungen führen z.B. zu einem höheren Fahrgastaufkommen. Mathematisch ausgedrückt heißt das die Nebenbedingungen werden dynamisch und das Problem wird in der Regel nichtlinear. Betriebliche Problemstellungen haben oft ein ähnliches Problem, d.h. die Daten bleiben nicht fix sondern sind abhängig von der gefundenen Lösung.

Ein wichtiges Teilergebnis des Forschungsvorhabens von Sven Müller ist eine exakte lineare Reformulierung für das ursprünglich nicht-lineare Optimierungsmodell.

Ein weiteres grundsätzliches Problem ist, dass die Nutzenfunktion hinreichend genau beobachtet werden müsste. Ideal wäre es, wenn nur noch weißes Rauschen im Störterm berücksichtigt werden muss, d.h. alle zufälligen Anteile sind wirklich nur zufällig und unverbunden mit den beobachteten Daten. Das ist in der Realität leider nicht möglich und so führen nicht beobachtete Anteile zu Kovarianzen im Modell, die nicht null sind. Anders ausgedrückt, ist der stochastische Anteil nicht nur weißes Rauschen.

Nebenbei gewann er noch einige andere Erkenntnisse. Z.B. ist es für die Prognose der Fahrradnutzung nicht ausreichend, die Distanz als Maß zu nehmen, da es bergauf- bzw. bergab gehen kann und das für die Entscheidung mindestens ebenso wichtig ist wie die Entfernung. Dieser Frage geht er zur Zeit auch mit seinen Studierenden im Studiengang Verkehrssystemmanagement an der HTW nach.

Zwei weitere Themen, an denen Sven Müller zur Zeit arbeitet, weil sich gute Anknüpfungspunkte aus den eben geschilderten neuen Optimierungsstrategien bieten, sind z.B. die Versorgungsplanung in der Medizin und die Planung der Pilgerströme in Mekka.

Genauer gesagt geht es bei der Versorgungsplanung um Vorsorgeprogramme (Prävention). Durch eine hohe Attraktivität des Angebots soll erreicht werden, das möglichst viele Patienten freiwillig teilnehmen. Auch hier ist die gute Erreichbarkeit der Ärzte wichtig, aber auch ihre Attraktivität. Es gilt abzuwägen, wie viele Ärzte an dem Präventionsprogramm mit welcher Kapazität teilnehmen sollen. Einerseits aus Kostengründen natürlich möglichst wenige. Aber andererseits ist gerade die kurze Wartezeit auf einen Termin ein Garant dafür, dass der Termin auch wahrgenommen wird. Somit führt die Optimierung wieder auf ein dynamisches Problem. Viele Standorte führen zu kurzen Wegen und weniger "no shows". Aber viele Untersuchungen bei einem Arzt stärken seine Kompetenz - verlängern aber die zu erwartende Wartezeit. Leider führt das außerdem auf ein nicht konvexes Optimierungsproblem, d.h. die Existenz von Optima folgt nicht mit traditionellen Methoden (bei denen ist Konvexität eine zentrale Voraussetzung).

In Mekka sind während einer reicht kurzen Zeit etwa 2-5 Millionen Pilger unterwegs, um Rituale durchzuführen wie die Umkreisung der Kaaba und die symbolische Steinigung des Teufels an drei Säulen. Um das Risiko von Zwischenfällen, bei denen in der Vergangenheit schon hunderte von Todesopfern zu beklagen waren, zu senken, wird das Verhalten der Pilger modelliert in Bezug auf Geschwindigkeit und Dichte. Anschließend werden rund 2 Millionen Pilger, Routen zugewiesen, die so berechnet sind, dass alle Routen möglichst kreuzungsfrei sind. Weiterhin erhalten die Pilger fest zugewiesene Steinigungszeiten, so dass die erwarteten Dichten möglichst unkritisch sind. Der Einfluss von bestimmten Fehlern, wie z.B. falsch gesetzte Zäune oder falsch interpretierte Anweisungen kann dabei nicht völlig ausgeschlossen werden und wird als Risikofaktor in der Auslastung der Routen berücksichtigt.

Die Studierenden im Studiengang Verkehrssystemmanagement an der Hochschule Karlsruhe - Wirtschaft und Technik sind hier an forderster Forschungsfront dabei. Z.B. mit Experimenten zu Fußgänger-Verhalten. Denn auch hier ist eine gute Datenlage der Schlüssel zum Erfolg.


Literatur und weiterführende Informationen S. Müller e.a.: Travel-to-school mode choice modelling and patterns of school choice in urban areas, Journal of Transport Geography 16 (2008) 342–357 S. Müller: Bildungsstandorte und demographischer Wandel, STANDORT 34 (2010) 6–10 S. Müller e.a: Exposing Unobserved Spatial Similarity: Evidence from German School Choice Data, Geographical Analysis 44 (2012) 65–86 K. Haase, S. Müller: Management of school locations allowing for free school choice, Omega 41 (2013) 847–855 K. Haase, S. Müller: Insights into clients’ choice in preventive health care facility location planning , OR Spectrum 37 (2015) 273-291 K. Haase e.a.: Improving Pilgrim Safety During the Hajj: An Analytical and Operational Research Approach Interfaces 46 (2016) 74-90

Hundert

Jul 15, 2016 2:01:38

Description:

Zur 100. Folge haben sich Gudrun und Sebastian bei Gudrun getroffen, um sich zum Jubiläum einfach mal in Ruhe über den Podcast, den Ursprung, was wir so erlebten und was vor uns liegt.

Für Sebastian öffnete die Raumzeit-Folge zu Tandem-X die Augen, wieviel wissenschaftlicher Inhalt in einem Podcast übertragen werden kann. Schnell war Gudrun begeistert und nahm mit Sebastian die erste Folge zu ihrer Vorlesung über mathematische Modellbildung auf. Nach zwei weiteren Aufnahmen zur Aorta-Challenge und zur Unsichtbarkeit machten wir unsere ersten Versuche öffentlich. Schon früh stellte sich heraus, dass uns die Themen zur Mathematik nicht schnell ausgehen, da es so viele Abschlussarbeiten, Forschungsthemen und Vorlesungen gibt, die jeweils auch noch unter unterschiedlichen Sichtweisen betrachtet werden können.

Im Storify sieht man, wie wir schon früh vielseitig unterstützt wurden und unsere Hörerzahl stieg schnell an:

Ein besonderer Unterstützer war dabei Henning Krause, der uns eine Grußbotschaft sendete und ganz besonders die Qwirkle-Folge schätzt. Einen weiteren Gruß sandte uns Katrin Leinweber vom KonScience Podcast.

Weitere Grüße erreichten uns aus Kanada von Anja Randecker aus unserer Folge zu Wilden Singularitäten, die nun in Toronto als Post-Doc weiter zu Translationsflächen forscht. Sehr haben wir uns auch über die Grüße aus dem Grünen von Martin Rützler gefreut, der selbst im Radio Mono Podcast, im DKG-Podcast und im Sendegarten regelmäßig zu hören ist, die deutschen GanzOhr-Wissenschaftspodcast-Treffen initiierte und die Wissenschaftspodcasts-Seite mit begründete.

Neben Gesprächen über Vorlesungen, wie zur Analysis, Höhere Mathematik oder Digitale Währungen, hat nun Gudrun auch eine Vorlesung aufgenommen: Den Schnupperkurs zur Verkehrsmodellierung, der jeweils auf viele Gespräche im Podcast verweist. Bei Konscience gibt es interessante Konzepte zur Verknüpfung von Vortrag und Podcast, die auch auf Vorlesungen angewendet werden könnten.

Ganz besondere Grüße erreichten uns von Lorenz Adlung, den wir in der Folge 39 zur Systembiologie im Podcast hatten. Lorenz ist auch ein begnadeter Science-Slammer, wie auch Anastasia August aus unserer Folge 37 zum Metallschaum. Sie ist weiterhin als Mathematikerin am Institut für Angewandte Materialien, wo sie aktuell an Gradierten Schäumen und Magischen Schäumen forscht und ein Graduiertenkolleg vorbereitet.

Sebastian hat die Folge 98 zu Primzahlen und Gruppen sehr gefallen, wo Rebecca Waldecker den Einstieg in die Algebra und Zahlentheorie sehr anschaulich beschrieben hat.

Besonders spannend sind auch Themen, die inzwischen zu Ausgründungen geführt haben: Markus Dahlem in M-Sense mit dem Thema Migräne, Tobias Hahn mit der Chromatographie, sowie Carlos Falquez, Iris Pantle und Balazs Pritz zu Strömungslärm.

Im Zuge des SFB zu Wellenphänomenen haben wir auch ein Special zum Cooking Math Projekt durchgeführt, wo durch Gespräche die vielseitigen Kunstobjekte zur Mathematik dargestellt werden. Ein persönliches Special war für uns aber auch die Nullnummer in Folge 73, die wir mit Nele Heise aufnehmen konnten.

Ebenso haben wir uns sehr über die Grüße von Melanie Bartos gefreut, die mit ihrem Podcast Zeit für Wissenschaft immer wieder über spannende wissenschaftliche Themen aus der Uni Insbruck berichtet. Natürlich haben uns auch Annika Brockschmidt und Dennis Schulz vom Science Pie Podcast aus Heidelberg einen wunderschönen Gruß gesendet, und auch Nora Ludewig und Markus Völter vom Omega Tau Podcast schlossen sich mit einer lieben Botschaft an. Und wir freuen uns die beiden im Oktober beim GanzOhr2016-Treffen der Wissenschaftspodcasts wieder zu sehen.

Unsere Audiodaten laufen inzwischen durch die Open Source Podcast Audio Chain (OSPAC). Einen Einblick kann man im Vortrag zu OSPAC auf der Subscribe7 oder dem erweiterten Vortrag zu OSPAC auf der GPN16 erhalten, und auch LIGO-Rohdaten auswerten. Informationen zum Aufnehmen von Podcasts mit dem iPhone habe ich auf dem Sendegate hinterlegt. Spannend waren auch die Podcast Nachbarschafts-Graphen, die nun auch eine neue Fortsetzung auf dem FYYD Podcast-Verzeichnis.

Wir haben einige Überraschungen in den bisher beliebtesten Folgen und am längesten gehörten Folgen im Modellansatz- welches dies sind, muss man sich beim Interesse im Podcast anhören.

Kointegrierte Prozesse

Jul 8, 2016 25:22

Description:

Markus Scholz hat gerade seine Dissertation Estimation of Cointegrated Multivariate Continuous-Time Autoregressive Moving Average Processes an der KIT-Fakultät für Mathematik verteidigt. Gudrun ergriff die Gelegenheit, mit ihm über die Idee und Anwendungsmöglichkeiten von Zeitreihen-Modellen zu sprechen.

Prinzipiell stehen Zeitreihen einerseits für zeitlich geordnete (Mess-)Daten, die z.B. durch Abtasten (wiederholtes Messen) eines Vorgangs in der Realität entstehen. Andererseits werden sie in der Statistik als Ergebnis eines Stochastischen Prozesses interpretiert, der diese Zeitreihe als eine seiner Realisierungen erzeugt. Der stochastische Prozess ist hierbei ein Modell und soll die wichtigsten Eigenschaften der Daten erfassen. Er soll auch dazu dienen, zuverlässige Schätzungen zu liefern, wie sich die Zeitreihe wahrscheinlich in die Zukunft fortsetzt. Mitunter interessieren hier sogar nur so oberflächliche Informationen wie Saisonalität und Trends.

Ein Aspekt, der im Titel der Arbeit von Markus Scholz als "Moving Average" beschrieben ist, ist die Eigenschaft, dass die Werte der Zeitreihe vor allem durch die letzten davor liegenden Meßpunkte beeinflusst sind und die "Erinnerung" an weiter in der Vergangenheit liegende Zustände abklingt. Im Modell ist hier stets eine Zufallsquelle integriert, die man sich wie ein Auswürfeln pro Zeitpunkt vorstellen kann.

Wie erfolgt hier die Zuordnung zwischen Datenreihe und stochastischem Modell? In der Regel basiert die Wahl auf der Erfahrung über zuvor benutzte Modelle in ähnlichen Zusammenhängen und auf den bekannten Eigenschaften der Modelle. Anschließend müssen jedoch stochastische Tests belegen, dass die Zuordnung tatsächlich korrekt ist.

Markus Scholz hat sich mit stochastischen Prozessen beschäftigt, die kontinuierlich in der Zeit sind statt - wie bisher beschrieben - diskret. Sie eignen sich z.B. zur Modellierung von Temperaturverläufen. Prinzipiell nimmt man dabei an, dass eine hoch genug gewählte Abtastrate den Übergang von diskreten Messungen zu einem als stetig angesehenen Prozess unkritisch macht. Der Aspekt, der ihn hier vor allem beschäftigt hat, war die Erweiterung bekannter Modelle um die Eigenschaft der Nicht-Stationarität. Das heißt kurz gesagt, die Grundeigenschaften des Prozesses können sich über die Zeit ändern. Das kennen wir ja auch von der Temperatur: Einerseitzs durchlaufen tägliche Tiefst-, Höchst- oder Mittelwerte der Temperatur im Jahresverlauf eine typische Kurve für eine betrachtete Region. Andererseits kann im konkreten Jahr ein untypischer Verlauf vorliegen und es ist gar nicht so leicht zu quantifizieren, ob es sich um eine untypische Beobachtung handelt oder sich z.B. die Mittelwerte tatsächlich statistisch signifikant ändern. Anders gesagt führt die Nicht-Stationarität im Modell auf Probleme bei zugehörigen Schätzungen, die in der Regel schwer zu lösen sind.

Deshalb hat Markus Scholz zunächst einen handhabbaren Spezialfall ausgewählt, die sogenannten kointegrierte Prozesse. Als stochastische Quelle - dienen ihm Lévy-Prozesse, die Sprünge zulassen. Die einfachste Zufallsquelle wären Brownsche Bewegungen, die aber nur stetig (d.h. ohne Sprünge) möglich sind. Lévy- Prozesse sind flexibel haben jedoch nützliche Eigenschaften, die ihre Behandlung erleichtern, wie z.B. stationäre Inkremente.

Grundidee der Arbeit war es, vorhandene Resultate für zeitdiskrete nicht-stationäre Modelle und zeitstetige stationäre Modelle so zu vereinen, dass ein neues zeitstetiges und nicht-stationäres Modell mit gut studierbaren Eigenschaften entsteht. Hierbei wurden Zustandsraummodelle verwendet, welche durch Matrizen charakterisiert werden, die die Eigenschaften des Modells bestimmen. Eine entscheidende Beweisidee beruht darauf, dass die Matrizen so transformiert werden können, dass ein Entkopplung in stationäre und nicht-stationäre Anteile erfolgt und die Benutzung der jeweils bekannten Resultate auf den zusammengesetzten Prozess möglich wird.

Besonders wertvoll sind hier die entwickelten Schätzverfahren für kointegrierte Prozesse. In der Praxis haben die Zeitreihen meist einen ungefähren Gleichlauf über die Zeit, damit sind sie gemeinsam integriert, also kointegriert. Der Begriff Integration bedeutet, dass die nicht-stationären Zeitreihen durch Differenzenbildung auf neue stationäre Zeitreihen zurückgeführt werden können. Die Schätzmethode baut auf derMaximum-Likelihood-Schätzung auf, welches anschließend mit Hilfe eines numerisches Optimierungsverfahren gelöst wird. Für die Schätzmethode konnte die Konsistenz nachgewiesen werden, d.h. Schätzfolgen mit immer mehr Daten werden immer besser (Konvergenz in Wahrscheinlichkeit gegen wahren Wert).

Referenzen C. Granger: Nobel Prize Lecture, 2003. R. Stelzer: CARMA Processes driven by Non-Gaussian Noise, TUM-IAS Primary Sources - Essays in Technology and Science, 1 no.1, 2012. E. Schlemm and R. Stelzer: Quasi maximum likelihood estimation for strongly mixing state space models and multivariate Lévy-driven CARMA processes, arXiv, 2012.

Primzahlen und Gruppen

Jul 1, 2016 48:13

Description:

Rebecca Waldecker ist Professorin für Algebra an der Martin-Luther-Universität Halle-Wittenberg. Sie besuchte Karlsruhe aus Anlass einer Konferenz zu Ehren von Richard Weiss und Gudrun nutzte die Gelegenheit, um mit ihr über das Faszinosum und die Nützlichkeit von Primzahlen und ihr Forschungsgebiet der Gruppentheorie zu sprechen.

In der Vergangenheit gab es verschiedene Definitionen für Primzahlen, die sich über die Zeit zu dem heute gebräuchlichen geschärft haben:

Eine Primzahl ist eine natürliche Zahl, die genau zwei verschiedene natürliche Teiler hat - sich selbst und 1.

Die Zahl 1 ist damit keine Primzahl, aber z.B. ist die Zahl 2 prim sowie die Zahlen 3, 5, 7, 11, 13, 17, 19 usw. Ein grundlegendes Resultat besagt, dass sich alle natürlichen Zahlen eindeutig in Produkte von Primzahlen aufteilen lassen. Zahlen, die selbst nicht prim sind, nennt man deshalb zerlegbar bzw. zusammengesetzt, weil man sie mit Hilfe dieser Darstellung in die zugehörigen Primfaktoren aufteilen kann bzw. man diese als Grundbausteine der natürlichen Zahlen ansehen kann.

Es gibt in diesem Zusammenhang viele interessante Fragen. Zum Beispiel:

Wie viele Primzahlen gibt es? Gibt es beliebig große Primzahlzwillinge, d.h. zwei Primzahlen, die voneinander nur den Abstand 2 haben (wie z.B. 11 und 13)? Wie kann ich eine Zahl als Primzahl erkennen? Wie kann ich für jede Zahl (effektiv) die Zerlegung in Primfaktoren berechnen?

Interessant ist, dass diese Fragen, die doch eher theoretisch und fast schon spielerisch wirken, heute eine große Relevanz erhalten, weil sich alle gebräuchlichen digitalen Verschlüsselungsverfahren (z.B. beim online-Banking) großer Primzahlen bedienen (je größere Primzahlen man verwenden kann, desto sicherer ist die zugehörige Verschlüsselung). Das liegt daran, dass es im Allgemeinen tatsächlich eine recht lange Rechenzeit braucht, um große Zahlen in mögliche Primfaktoren zu zerlegen.

Wenn man sich jedoch davon löst, Primzahlen und Teiler nur auf natürliche Zahlen zu beziehen, wird die Welt noch ein wenig interessanter. Besonders einfach und fast offensichtlich ist es bei der Ausweitung auf ganze Zahlen. In den ganzen Zahlen gibt es mehr Teiler: Zum Beispiel hat die Zahl 3 dort (neben 3 und 1) auch noch die Teiler -1 und -3. Man muss dann entscheiden, welches die Grundbausteine für ganze Zahlen sein sollen.

Noch etwas allgemeiner ausgedrückt: Wenn der Begriff der Primzahl auf andere Zahlbereiche verallgemeinert wird, dann gibt es zwei Eigenschaften, die man als charakterisch für "prim" ansehen kann: Einerseits die "Unzerlegbarkeit", also die Eigenschaft, nur die offensichtlichen Teiler zu besitzen. Primzahlen haben aber auch die Eigenschaft (im Bereich der ganzen Zahlen), dass, wenn sie ein Produkt von Zahlen teilen, sie automatisch mindestens einen der Faktoren teilen. Auch diese Eigenschaft kann man zur Verallgemeinerung der Eigenschaft "prim" benutzen.

Häufig ist es so, dass in der Übertragung der Idee auf Objekte, die die Struktur eines algebraischen Rings haben (d.h. grob gesprochen, man "rechnet" in ihnen mehr oder weniger so, wie wir es von den ganzen Zahlen kennen) die Unzerlegbarkeit mit dem Begriff "irreduzibel" verallgemeinert wird und dass die andere Eigenschaft (wenn man ein Produkt teilt, dann auch mindestens einen der Faktoren) mit "prim" oder "Primelement" verallgemeinert wird. In manchen Zahlbereichen fallen diese Begriffe zusammen. Zum Beispiel ist das bei den ganzen Zahlen so und bei den im Gespräch erwähnten Ganzen Gaußschen Zahlen.

Die Ganzen Gaußschen Zahlen werden aus allen Punkten mit ganzzahligen Koordinaten in der Gaußschen Zahlenebene gebildet. Diese Ebene ist eine geometrische Interpretation der Menge der komplexen Zahlen - die beiden Achsen geben Real- und Imaginärteil der jeweiligen komplexen Zahl an. Wählt man alle ganzzahligen Punkte, so ergibt das eine Struktur, die geometrisch betrachtet ein Gitter ist, und die algebraisch betrachtet den ganzen Zahlen nicht unähnlich ist. Allerdings wird die Multiplikation etwas interessanter, deshalb ändern sich die Eigenschaften von Primzahlen im Ring Z[i] der Ganzen Gaussschen Zahlen.

2 ist dort keine Primzahl, sondern hat neben den offensichtlichen Teilern 2,-2,1,-1,i,-i,2i,-2i auch noch die Teiler 1+i, 1-i und noch einige mehr. Alle Primzahlen, die beim Teilen durch 4 in Z[i] den Rest 3 lassen, bleiben prim in Z[i]. Zum Beispiel 3, 7 und 11. Alle Primzahlen, die beim Teilen durch 4 in Z[i] den Rest 1 lassen, sind nicht mehr prim in Z[i], sondern bekommen dort interessante zusätzliche Teiler. Das liegt daran, dass diese Zahlen sich als Summe von zwei Quadraten schreiben lassen.

Streng genommen geht es hier nicht um die Eigenschaft, prim zu sein, sondern um die Eigenschaft, irreduzibel zu sein (siehe oben). Aber im Ring der Ganzen Gaussschen Zahlen fallen diese Begriffe zusammen. Wer sich dafür interessiert, findet beispielsweise beim Suchen mit den Stichworten Zwei-Quadrate-Satz von Fermat und Normfunktion bei den Ganzen Gaußschen Zahlen viele weitere Informationen und Details.

Für die Herleitung von effektiven Verfahren, die Primzahlen herausfischen (Primzahlsieb), ist es mitunter nützlich, auf bestimmte Eigenschaften von Primzahlen zurückzugreifen, statt stur alle Teiler zu probieren - von denen gibt es schon für mittelgroße Zahlen nämlich ganz schön viele und es wird selbst mit Hilfe schneller Computer recht zäh. Eine solche Eigenschaft ist im kleinen Satz von Fermat formuliert:

Ist p eine Primzahl und ist a eine ganze Zahl, so gilt: a^p und a haben beim Teilen durch p den gleichen Rest.

Falls a nicht durch p teilbar ist, dann gibt es noch eine andere Version:

a^{p-1} hat beim Teilen durch p genau den Rest 1.


Dies kann man zur Erkennung von Primzahlen ausnutzen:

Ist n eine natürliche Zahl, die man auf Primalität untersuchen möchte, so wählt man sich zufällig eine Zahl a, die echt zwischen 1 und n liegt und die teilerfremd zu n ist (falls das nicht möglich ist, dann ist n=2 und man kann den Test sofort beenden).

Nun haben wir also a und n und berechnen a^{n-1}. Falls beim Teilen durch n dann der Rest 1 herauskommt, dann ist das Testergebnis "n ist wahrscheinlich prim.".
Andernfalls ist das Testergebnis "n ist zusammengesetzt."

Das Ergebnis "zusammengesetzt" ist immer richtig, aber das Ergebnis "prim" ist manchmal falsch. Bei den sogenannten Pseudoprimzahlen erscheint für manche Werte von a die Ausgabe "prim", obwohl die Zahl in Wirklichkeit zusammengesetzt ist. Noch schlimmer: Bei den sogenannten Carmichael-Zahlen ist es sogar so, dass für jede mögliche Zahl a, die man sich für den Test wählen könnte (mit den Einschränkungen von oben), der Test das Ergebnis "prim" ausgibt, obwohl die Zahl in Wirklichkeit zusammengesetzt ist.

Solche "Unfälle" haben dazu geführt, dass man nach feineren Tests gesucht hat, die weniger Fehler machen. Ein Beispiel ist der Miller-Rabin-Test. Der erste Schritt ist dabei so ähnlich wie beim Fermat-Test, aber es gibt danach noch einen zweiten Schritt.

Auf der Seite http://www.visual.wegert.com von Elias Wegert findet man viele wunderbare Illustrationen, manche davon haben mit Primzahlen zu tun. Hier sind noch mehr Tipps zum Stoebern und Weiterlesen:

Literatur und weiterführende Informationen Chris K. Caldwell: The List of Largest Known Primes Home Page R. Waldecker, L. Rempe-Gillen: Primzahltests für Einsteiger, 2. Auflage. Springer, 2015. Auch in englisch erhältlich: Primality testing for beginners, Januar 2014 in der Serie Student Mathematical Library der AMS. E. Wegert: Visual Complex Functions, Birkhäuser, 2012. Agrawal, M., Kayal, N. und Saxena, K.: PRIMES is in P, Annals of Math. 160 (2004), No. 2, 781 - 793. Hardy, G.H.: A mathematician's apology, Cambridge University Press, 1992. Crandall, R. und Pomerance, C.: Prime Numbers: A computational perspective, Springer, 2005. Dietzfelbinger, M.: Primality Testing in Polynomial Time: from randomized algorithms to PRIMES is in P, Springer, 2004. Podcasts S.Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen F. Januszewski: L-Funktionen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 55, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/l-funktionen F. Schmidt: RSA-Faktorisierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 70, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/rsa-faktorisierung

Finanzen damalsTM

Jun 23, 2016 2:08:38

Description:

Auf der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe trafen sich Stephan Ajuvo und Sebastian Ritterbusch für einen Cross-Over Podcast vom damals TM Podcast und dem Modellansatz Podcast um über die Geschichte von Finanzen und Mathematik zu plaudern.

Der damalsTM Podcast befasst sich damit, wie es kam, dass es kam, so dass es ist, wie es ist- und hatte in der letzten Zeit schon eine Reihe zu Geld (Geld I, Geld II, Geld III), wo die Entwicklung der Zahlungsmittel bisher bis zum 2. Weltkrieg behandelt wurden.

Die Ökonomie zählt zu den Sozialwissenschaften, die oft Theorien auf Annahmen behandeln, während die Mathematik als Geisteswissenschaft sich gerne auch mal sehr exakt mit Theorien fernab der Realität befassen kann. Die Kryptographie ist jedoch ein schönes Beispiel, wie aus abstrakten mathematischen Theorien der Algebra und der Zahlentheorie plötzlich sehr reale Anwendungen aus unserem Alltag wurden. Mit Kryptoanalyse konnte man sowohl einfache Transpositionschiffren als auch die Enigma durch mathematische Verfahren knacken.

Bevor vereinheitlichte Geldeinheiten eingeführt wurden, waren schon früh Objekte mit Geldfunktion eingesetzt, wo oft die Seltenheit und Wertigkeit des Materials schon für sich einen gewissen Wert sicherte. Ebenso früh kam es zu Geldversprechen wie dem Agrarkredit (zurück bis hin zum Codex Hammurapi), mit denen jetzige Ausgaben durch versprochene spätere Erntegewinne beglichen werden konnten. Dies führte zum Konzept des Zinses, mit dem das Verlustrisiko durch Ausfall und die erst spätere Zugängigkeit des Geldes bewerten kann. Das Größenordnung des Zehnt war gesellschaftlich zwar als Steuer akzeptiert, wurde jedoch als Zins schnell als Wucher gesehen, da der Zinseszins sehr schnell anwuchs. Daraus entstand auch die Gegenbewegung des Zinsverbots, das auch heute noch im Islamischen Bankwesen zu Umgehungsgeschäften führt. Die mit Geldgeschäften oft assoziierten Geldwechsler hatten als Arbeitsmittel eine Bank, die namensgebend für unsere heutigen Banken ist, und woran das Wort bankrott auch heute noch erinnert.

Neben astronomischen Berechnungen, wie der Berechnung des Osterfests, war die Geldwirtschaft früh ein großes Anwendungsfeld für die Mathematik. Ein wichtiges Berechnungsmodell waren die Abzinsung und die Zinsformel, mit der man die Werte zwischen jetzt und in Zukunft unter Berücksichtigung des Zinses umrechnen konnte. Hier war das exponentielle Wachstum der Kreditentwicklung unter Zinseszinsen für viele nicht zu übersehen. Aber selbst, wenn man diese Berechnung beherrschte, so gab es das Zinsänderungsrisiko, das besonders bei langfristigen Verträgen zu erheblichen Änderungen zu den Kalkulationen führen konnte.

Verschiedene Zinssätze verschiedener Landesherren führte auch unmittelbar zu unterschiedlichen Wechselkursen zwischen den lokalen Währungen der Landesherren. Zusätzlich gab es schon früh den Effekt der Teuerung oder Inflation oft durch unkontrolliertes Geldmengenwachstum. Ein Beispiel ist hier die Inflation durch die Entdeckung Amerikas. Es war damals noch nicht klar, wie der tatsächliche Wert des Geldes auch durch einen Warenkorb identifiziert werden kann. Ein sehr grobes aber dafür sehr leicht zugängiges aktuelles Indiz für den Wert verschiedener Währungen ist der Big-Mac Index.

Aus der Anforderung des waren- und ortsübergreifenden Handels wurden die Börsen geboren: Hier konnten Waren und Währungen im Jetzt, aber auch in der Zukunft in Termingeschäften gehandelt werden. Schnell etablierte sich hier auch die Spekulation, die über Risikoübernahme zu einem wichtigen Bestandteil der Wirtschaft wurde. Ein bekanntes Beispiel für eine Fehlentwicklung ist die Tulpenkrise, bei der es zu einer Finanzblase bis hin zum Börsencrash kam, und exemplarisch für spätere Immobilienblasen wurde. Die Effekte konnten durch Hebeleffekte noch verstärkt werden, wenn Fremdkapital für mehr erwartete Rendite eingesetzt wurde.

Eine Renditebetrachtung ist auch für die persönliche Finanzplanung sehr wichtig- so sollte jeder die Altersvorsorge frühzeitig angehen und dabei Risikoklassen und die Diversifikation zur Risikoverteilung beachten. Aus der Erfahrung, dass viele Finanzprodukte und Anlageberater die zugrunde liegenden Indices oft nur in der Vergangenheit schlagen, haben sich Finanzcommunities wie The Motley Fool gebildet, um sich gegenseitig zu informieren.

Mathematisch kann man die Optimalität einer Investition auch als Multikriterielle Optimierung zwischen Rendite und Risiko im Sinne der Volatilität verstehen: Hier stellt sich heraus, dass hier zwischen den Kriterien abgewogen werden muss, und es nicht ein Optimum gibt, sondern die Linie der Pareto-Optimalität. Jedoch darf man nicht einfach aus der vergangenen Entwicklung auf Rendite und Risiko schließen: Gerade Ponzi-Systeme scheinen eine hohe Rendite bei geringer Volatilität und Risiko zu liefern, wo die Zinsen früherer Anleger nur durch die Investitionen durch angelockte Neuanleger bezahlt werden, und was natürlich nicht ewig funktionieren kann, und viele werden ihren Einsatz verlieren.

Plant man Investitionen in Güter, so sollte man daher genau recherchieren, wie es um den Gegenstand steht. Bei Immobilien gibt ist eine Begehung mit Fachpersonen möglich und ein Blick in Bodenrichtwertkarten ist sehr sinnvoll. Bei Aktien kann man hingegen auf Basis der veröffentlichten Informationen und Kennzahlen Fundamentalanalysen bilden. Alle diese Modelle sind aber immer Komplexitätsreduktionen, die irgendwann ihre Gegenbeispiel finden können und dann zu Geldverlust führen.

Neben der schwierigen Bewertung von Aktien wird es richtig spannend, wenn notwendigerweise auch Termingeschäfte oder Derivate der Aktien oder Wirtschaftsgüter berücksichtigt werden: Diese werden im Markt unmittelbar benötigt, sind jedoch vom Basiswert und der allgemeinen Marktsituation abhängig. Optionen können auf der einen Seite Geschäfte absichern, können jedoch auf der anderen Seite bei einem hohem Hebel auch sehr spekulativ und entsprechend gefährlich sein.

Für eine mathematische Bewertung von Optionen wird ein Markt mit Arbitragefreiheit vorausgesetzt, um andere künstliche Einflüsse auszuschließen. Dann können analytisch Optionskennzahlen (die Griechen) bestimmt werden, um aus dem komplexen Markt ein Gefühl für den Wert zu erhalten. Umgekehrt kann man aber auch konstruktiv eine Bewertung mit dem Cox-Ross-Rubinstein-Modell berechnen. Der Kursverlauf wird hier vereinfacht wie der Kugellauf durch ein Galtonbrett angenommen, wo eine Richtung für einen fallenden Kurs, die andere für einen steigenden Kurs steht. Dies führt im vereinfachten Fall zu einer Binomialverteilung oder im Grenzfall zu einer Normalverteilung der möglichen Kurse am Ende der Laufzeit. Damit kann die Option auf Basis von Volatilität und Rendite des Basiswerts mit einem diskreten Modell bewertet werden.

Das vereinfachte Cox-Ross-Rubinstein-Modell lässt sich unter weiteren Annahmen immer feiner diskretisieren und man erhielt 1973 das Black-Scholes-Modell, wo nun in dieser stochastischen Differentialgleichung der Brownsche Prozess Anwendung findet. Der Brownsche Prozess ist der beobachteten zufälligen brownschen Molekularbewegung entlehnt. Aus diesem komplexen Modell können nun einfache geschlossene Formen für die Bewertung von vielen Optionenstypen berechnet werden, was 1997 zur Verleihung des renommierten Preises der Wirtschaftswissenschaften geführt hatte.

Leider ergaben sich schnell Widersprüche in der Überprüfung des Modells am echten Markt: Es entsteht der Volatilitäts-Smile, der den Unterschied der Vorhersage zur tatsächlichen Situation darstellt. Interessanterweise trat der von Devisen bekannte Effekt bei Aktien erst nach dem Börsencrash von 1987 auf.


Podcasts S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. W. Härdle: Risikobewertung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 41, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. S. Ajuvo, L. Schult: Geld I, Gespräch im damalsTM Podcast, Folge 2, 2015. S. Ajuvo, Steffen P., L. Schult: Geld II, Gespräch im damalsTM Podcast, Folge 5, und im VorHundert Podcast, Folge 18, 2015. S. Ajuvo, L. Schult: Geld III, Gespräch im damalsTM Podcast, Folge 21, 2016. L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe
GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine M. Fürst: Probabilistische Robotik, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik S. Ajuvo: Finanzen damalsTM, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm

Ensemblevorhersagen

Jun 17, 2016 33:27

Description:

Stephan Hemri hat an der ETH in Zürich einen Bachelorstudiengang Umweltwissenschaften absolviert und sein Studium mit einem Master in Statistik abgerundet. Seine Masterarbeit entstand an der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL). Hierbei hat er auch statistisches Postprocessing kennengelernt. Mit diesem Wissen und dem vorhandenen Interesse übernahm er ein Promotionsthema von Tilmann Gneitling am Lehrstuhl für Computational Statstics an der KIT-Fakultät für Mathematik und am Heidelberger Institut für Theoretische Studien. Zu den Höhepunkten dieser Zeit zählt er die vier Monate, die er am Europäischen Wetterzentrum (Zentrum für Mittelfristprognose) in Reading mitforschen konnte.

Schon seit langem werden für die Wettervorhersage numerische Modelle eingesetzt. Dabei werden Größen wie zum Beispiel Temperatur und Niederschlag auf einem globalen 3-dimensionale Gitter durch das Lösen von großen gekoppelten und nichtlinearen Gleichungssystemen bestimmt, die aus physikalischen Modellen hergeleitet sind, nach denen sich Luftmassen und Wasser in der Atmosphäre in etwa bewegen und dabei unser Wetter erzeugen. Ebenso wichtig - wenn auch weniger bekannt - sind hydrologische Vorhersagen zu Pegelständen an Flüssen, die mit ähnlichen Methoden für einige Zeit im voraus berechnet werden. Zu Beginn waren die damit verbundenen Rechnungen rein deterministisch, was den großen Nachteil hatte, dass die Ergebnisse der Modellläufe nichts über Unsicherheiten der Vorhersage aussagen konnten.

Eine Idee, um Ungenauigkeiten der Modellrechnungen zu bestimmen, ist zu Ensemblevorhersagen überzugehen. Das heißt, man berechnet nicht nur eine Vorhersage, sondern mehrere Modelläufe, jeweils zu abgeänderten (gestörten) Anfangsbedingungen oder mit verschiedenen Modellen, um zu sehen, wie stark sie sich in den Ergebnissen unterscheiden. Sind sich die verschiedenen Rechnungen weitestgehend einig, ist die Vorhersage recht sicher zutreffend. Weichen sie stark voneinander ab, sind sie entsprechend wenig sicher. Die Datenlage in der Wettervorhersage ist sehr gut. Insofern, kann man natürlich im Nachgang immer abgleichen, inwiefern Vorhersagen eingetroffen sind und dies zur Verbesserung der Modelle benutzen. Aber trotzdem bleiben konkrete Aussagen wie z.B. Hochwasservorhersagen oder Vorhersagen zu Pegeln anhand von Niederschlags-Daten sehr schwierig, weil die Modelle nicht ausgereift sind und die Verbesserung nicht auf der Hand liegt.

Zum Beispiel am Europäischen Wetterzentrum in Reading ist derzeit ein Ensemble bestehend aus 51 Modellenvarianten verfügbar. Zusammen mit einem deterministischen