Optimale SteuerungDie Theorie der optimalen Steuerungen (englisch optimal control theory) ist eng verwandt mit der Variationsrechnung und der Optimierung. Eine optimale Steuerung ist eine Funktion, welche eine gegebene Zielfunktion unter einer Differentialgleichungs-Nebenbedingung und eventuell noch weiteren Restriktionen minimiert oder maximiert. Zum Beispiel könnte ein Autofahrer versuchen, ein Ziel in möglichst geringer Zeit zu erreichen. Wann schaltet der Autofahrer am besten? Möglicherweise müssen gewisse Nebenbedingungen, z. B. Geschwindigkeitsbegrenzungen, eingehalten werden. Ein anderer Autofahrer versucht dagegen vielleicht, den Kraftstoffverbrauch zu minimieren, d. h., er wählt eine andere Zielfunktion. Wesentliche Grundlagen der Theorie wurden von Lew Pontrjagin in der UdSSR und Richard Bellman in den USA gelegt. Das Problem der optimalen SteuerungEs gibt mehrere mathematische Formulierungen der Aufgabenstellung, wobei wir hier eine möglichst allgemeine Form angeben. Seien und . Gesucht ist ein Zustand sowie eine Steuerung , sodass gilt: unter den Nebenbedingungen:
Ein , das diese Gleichung erfüllt, wird als optimale Steuerung bezeichnet. Häufig treten zusätzlich noch sogenannte Zustandsbeschränkungen auf, d. h., der Zustand zu einem bestimmten Zeitpunkt ist zusätzlich gewissen Restriktionen unterworfen. Von Interesse sind in erster Linie die folgenden Fragestellungen:
Während die Variationsrechnung Konkurrenzfunktionen lediglich auf offenen Mengen zuließ, wurden in den Optimalsteuerungen allgemeinere Voraussetzungen (u. a. abgeschlossene Mengen für die Steuerfunktionen ) betrachtet mit einem anderen Formalismus, der zwischen Steuerfunktionen und Zustandsfunktionen unterscheidet. Das Pontrjaginsche Maximumprinzip ist eine Verallgemeinerung der Weierstraß'schen Bedingung der Variationsrechnung. Für das Maximumprinzip waren neue Beweismethoden (u. a. Separation von Kegeln, Nadelvariationen) erforderlich. Ökonomische AnwendungenDie Methodik der optimalen Steuerung wurde schon früh auf praktische Bereiche der Ökonomie angewandt. Robert Dorfman legte 1969 eine ökonomische Interpretation der Theorie der Optimalen Steuerung vor.[1] Den Ausgangspunkt zur Lösung eines solchen Problems bildet die Hamilton-Funktion in der Kontrolltheorie (also Teil des Maximumprinzips). BeispielEine Firma möchte ihre Gewinne über eine bestimmte Zeitperiode maximieren. Zu jedem Zeitpunkt besitzt sie einen Kapitalstock aufgrund früheren Verhaltens, . Gegeben diesen Kapitalstock kann die Firma eine Entscheidung treffen (z. B. bzgl. des Outputs, Preises etc.). Gegeben und erhält die Firma pro Zeitspanne einen Gewinn . Es lässt sich dann für ein Zeitintervall ein dynamisches Optimierungsproblem formulieren: [2] Dieses kann ggf. um einen Abzinsungsfaktor erweitert werden. Anwendung in der QuantenphysikDie optimale Steuerung wird in verschiedenen Bereichen der Naturwissenschaft verwendet, um zeitliche Abläufe zu verbessern. In der Quantenphysik kann es sich bei der Zielfunktion zum Beispiel um die Fidelität zu einem erwünschten Zustand oder die Sensitivität eines Quantensensors handeln.[3] Siehe auchEinzelnachweise
Literatur
Weblinks
|