Präzise Nachlässigkeit
Probabilistische numerische Methoden lassen exakter Mathematik Raum für zeitsparende Fehler
- 16 April 2015
- Empirische Inferenz
Intelligenz beruht auf der Fähigkeit, mit begrenzter Information sinnvolle Entscheidungen und Aussagen zu treffen. Unsicherheit ist fundamentaler Bestandteil unseres physischen und sozialen Alltags. Aber selbst die präziseste Form wissenschaftlicher Aussagen, mathematische Rechnungen, sind nicht vor Unsicherheit gefeit.
Mit einem neuen Denkansatz wollen Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme Computercodes effizienter machen. Im Rahmen des Emmy-Noether-Programms (ENP) fördert die Deutsche Forschungsgemeinschaft (DFG) dieses Vorhaben in den nächsten fünf Jahren mit nahezu einer Million Euro. Mit seinem Projekt „Probabilistische Numerik“ hat der Antragsteller Dr. Philipp Hennig sich gegen starke Konkurrenz durchgesetzt. Im April startet die neue Tübinger Forschungsgruppe offiziell: die ersten beiden Doktoranden beginnen mit ihrer Arbeit.
Numerische Näherungsverfahren sind „Arbeitstiere“ der Mathematik
Moderne wissenschaftliche Modelle beinhalten oft mathematische Rechnungen wie Integrale, Extremwertberechnungen oder die Lösung von Differentialgleichungen, für deren Berechnung keine exakten Algorithmen bekannt sind. Und die extrem großen Datenmengen des Onlinezeitalters können auch dazu führen, dass selbst elementarste Rechnungen unmöglich präzise durchgeführt werden können – schlicht, weil sie zu lange dauern würden. Stattdessen kommen dann aufwendige numerische Näherungsverfahren zur Anwendung. Diese Rechenregeln gehören zu den meist-verwendeten Computeralgorithmen überhaupt. Sie bilden den elementaren Unterbau für alles, von der Wettervorhersage bis zu Google's Werbeempfehlungen. Einige sind über hundert Jahre alt. Sie wurden über diese Zeit von Generationen von Mathematikern in aufwendiger Arbeit immer weiter optimiert, um möglichst präzise, zuverlässige Antworten bei möglichst geringem Rechenaufwand zu liefern.
Die Forscher der 2015 neu gegründeten Emmy Noether Nachwuchsgruppe "Probabilistische Numerik" in der Abteilung für Empirische Inferenz stellen diese klassische Sicht auf den Kopf. Sie verwenden Wahrscheinlichkeitstheorie, um numerische Rechenregeln mit expliziten Fehlerschätzungen auszustatten. Wo dies gelingt, werden selbst aus elementarsten Rechenregeln intelligente, lernende Systeme - mit einem mathematischen "Bewusstsein" für den eigenen Beitrag zum Gelingen des "großen Ganzen" einer vielgliedrigen Rechnung. Diese probabilistischen numerischen Methoden versuchen zu erkennen, ob der ihnen aufgetragene Rechenschritt kritisch für die Gesamtrechnung ist, um dann zusätzliche Rechenzeit zu beanspruchen. Oder umgekehrt, um Zeit zu sparen, wenn sie ihren eigenen Beitrag als unkritisch zu erkennen glauben und dann gezielt auf Rechenpräzision verzichten und nur grobe Schätzungen abliefern. Die gleiche Technik erlaubt diesen Algorithmen auch zu erkennen, wenn sie "Geschwister" innerhalb einer großen Rechnung haben - andere Instanzen desselben Rechnungstyps mit anderen Variablen. Wenn dies der Fall ist, teilen sie bestimmte bereits berechnete Informationen mit ihren Geschwister-Instanzen, um diese redundante Rechenarbeit zu sparen.
"Die besondere Herausforderung bei unserer Arbeit ist, dass wir diese hochtrabenden Ideen, `Bewusstsein', `Ähnlichkeit' und `Verantwortung' in sehr wenige Fließkommazahlen destillieren müssen", sagt Philipp Hennig, Leiter der Forschungsgruppe. "Numerische Verfahren sind die Arbeitstiere der großen Rechnungen der Welt. Freizeit zum Philosophieren können die sich nicht leisten. Nur eine sehr kompakte, elementare Form von `Intelligenz' macht hier Sinn. Deswegen verbringen wir viel Zeit vor der Tafel, um genau zu verstehen welche Zahlen sich eine Methode merken muss um effizient unsicher zu sein. Was am Ende idealerweise übrig bleibt sind nur wenige Zeilen effizienter Computercode, und viel schlammiges Kreidewasser im Waschbecken."