Optimale Steuerung

Die Theorie der optimalen Steuerungen (englisch optimal control theory) ist eng verwandt mit der Variationsrechnung und der Optimierung. Eine optimale Steuerung ist eine Funktion, welche eine gegebene Zielfunktion unter einer Differentialgleichungs-Nebenbedingung und eventuell noch weiteren Restriktionen minimiert oder maximiert.

Zum Beispiel könnte ein Autofahrer versuchen, ein Ziel in möglichst geringer Zeit zu erreichen. Wann schaltet der Autofahrer am besten? Möglicherweise müssen gewisse Nebenbedingungen, z. B. Geschwindigkeitsbegrenzungen, eingehalten werden. Ein anderer Autofahrer versucht dagegen vielleicht, den Kraftstoffverbrauch zu minimieren, d. h., er wählt eine andere Zielfunktion.

Wesentliche Grundlagen der Theorie wurden von Lew Pontrjagin in der UdSSR und Richard Bellman in den USA gelegt.

Das Problem der optimalen Steuerung

Es gibt mehrere mathematische Formulierungen der Aufgabenstellung, wobei wir hier eine möglichst allgemeine Form angeben.

Seien und .

Gesucht ist ein Zustand sowie eine Steuerung , sodass gilt:

unter den Nebenbedingungen:

  1. für

Ein , das diese Gleichung erfüllt, wird als optimale Steuerung bezeichnet.

Häufig treten zusätzlich noch sogenannte Zustandsbeschränkungen auf, d. h., der Zustand zu einem bestimmten Zeitpunkt ist zusätzlich gewissen Restriktionen unterworfen.

Von Interesse sind in erster Linie die folgenden Fragestellungen:

  1. Existieren Lösungen und wie kann man sie berechnen?
  2. Welche notwendigen Bedingungen gibt es? Hierbei ist vor allem das Maximumprinzip von Pontrjagin von Bedeutung.
  3. Wann sind die notwendigen Bedingungen sogar hinreichend?

Während die Variationsrechnung Konkurrenzfunktionen lediglich auf offenen Mengen zuließ, wurden in den Optimalsteuerungen allgemeinere Voraussetzungen (u. a. abgeschlossene Mengen für die Steuerfunktionen ) betrachtet mit einem anderen Formalismus, der zwischen Steuerfunktionen und Zustandsfunktionen unterscheidet. Das Pontrjaginsche Maximumprinzip ist eine Verallgemeinerung der Weierstraß'schen Bedingung der Variationsrechnung. Für das Maximumprinzip waren neue Beweismethoden (u. a. Separation von Kegeln, Nadelvariationen) erforderlich.

Ökonomische Anwendungen

Die Methodik der optimalen Steuerung wurde schon früh auf praktische Bereiche der Ökonomie angewandt. Robert Dorfman legte 1969 eine ökonomische Interpretation der Theorie der Optimalen Steuerung vor.[1] Den Ausgangspunkt zur Lösung eines solchen Problems bildet die Hamilton-Funktion in der Kontrolltheorie (also Teil des Maximumprinzips).

Beispiel

Eine Firma möchte ihre Gewinne über eine bestimmte Zeitperiode maximieren. Zu jedem Zeitpunkt besitzt sie einen Kapitalstock aufgrund früheren Verhaltens, . Gegeben diesen Kapitalstock kann die Firma eine Entscheidung treffen (z. B. bzgl. des Outputs, Preises etc.). Gegeben und erhält die Firma pro Zeitspanne einen Gewinn . Es lässt sich dann für ein Zeitintervall ein dynamisches Optimierungsproblem formulieren: [2]

Dieses kann ggf. um einen Abzinsungsfaktor erweitert werden.

Anwendung in der Quantenphysik

Die optimale Steuerung wird in verschiedenen Bereichen der Naturwissenschaft verwendet, um zeitliche Abläufe zu verbessern. In der Quantenphysik kann es sich bei der Zielfunktion zum Beispiel um die Fidelität zu einem erwünschten Zustand oder die Sensitivität eines Quantensensors handeln.[3]

Siehe auch

Einzelnachweise

  1. An Economic Interpretation of Optimal Control Theory Pdf-Version des Artikels. In: The American Economic Review.
  2. Optimal Control@1@2Vorlage:Toter Link/community.bus.emory.edu (Seite nicht mehr abrufbar, festgestellt im Mai 2019. Suche in Webarchiven) (PDF; 307 kB) Chapter 2 aus einem Skript Dynamic Modeling von Peter Thompson. Goizueta Business School.
  3. Steffen J. Glaser, Ugo Boscain, Tommaso Calarco, Christiane P. Koch, Walter Köckenberger: Training Schrödinger’s cat: quantum optimal control: Strategic report on current status, visions and goals for research in Europe. In: The European Physical Journal D. Band 69, Nr. 12, Dezember 2015, ISSN 1434-6060, S. 279, doi:10.1140/epjd/e2015-60464-1 (springer.com [abgerufen am 15. Januar 2021]).

Literatur

  • B. S. Mordukhovich: Variational Analysis and Generalized Differentiation, I: Basic Theory, II: Applications. Springer Verlag, Berlin 2006.
  • Michael Plail: Die Entwicklung der optimalen Steuerungen. Vandenhoeck und Ruprecht Verlag, Göttingen 1998.
  • L. S. Pontrjagin: Mathematische Theorie optimaler Prozesse. Oldenbourg Verlag, Wien 1964.
  • Robert Dorfman. An Economic Interpretation of Optimal Control Theory. The American Economic Review. Volume 59. Issue 5 (Dec., 1969), 817–831. Online-Version (PDF; 1,9 MB)