Liniensuchverfahren

Unter den Liniensuchverfahren (englisch line search algorithms), auch allgemeine Abstiegsverfahren mit Richtungssuche[1] genannt, versteht man in der Optimierung eine Reihe von iterativen Verfahren, um das lokale Minimum einer Funktion zu finden. Die grundlegende Idee ist es, die Funktion in jedem Schritt entlang einer bestimmten Richtung zu minimieren. Beispiele für Algorithmen, die den Liniensuchverfahren zugeordnet werden können, sind das Gradientenverfahren (Verfahren des steilsten Abstiegs) und das Newton-Verfahren.[2]

Beschreibung

Allen Liniensuchverfahren gemein ist die folgende grundlegende Vorgehensweise, um aus einem bestehenden Zwischenergebnis ein neues Zwischenergebnis zu berechnen:[2]

  1. Bestimme eine Suchrichtung in Form eines Vektors .
  2. Berechne eine Schrittweite durch Minimierung der eindimensionalen Hilfsfunktion mit Bezug auf . Dieser Schritt wird auch Liniensuche genannt.
  3. Berechne die neue Lösung

Das Minimum der Hilfsfunktion aus Schritt 2 wird in der Regel nicht exakt bestimmt. Falls doch, spricht man von einer exakten Liniensuche.[3]

Einzelnachweise

  1. Rüdiger Reinhardt, Armin Hoffmann, Tobias Gerlach: Nichtlineare Optimierung. Springer-Verlag, Berlin Heidelberg 2013, Kap. 3.3, doi:10.1007/978-3-8274-2949-0.
  2. a b Josef Kallrath: Gemischt-ganzzahlige Optimierung: Modellierung in der Praxis. 2. Auflage. Springer Fachmedien Wiesbaden, 2013, S. 107, doi:10.1007/978-3-658-00690-7.
  3. Markos Papageorgiou, Marion Leibold, Martin Buss: Optimierung. 4. Auflage. Springer-Verlag, Berlin Heidelberg 2015, S. 43 ff., doi:10.1007/978-3-662-46936-1.