P. 1
FE73DD47d01

FE73DD47d01

|Views: 149|Likes:
Veröffentlicht vonviduum

More info:

Published by: viduum on Sep 21, 2010
Urheberrecht:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

09/21/2010

pdf

text

original

Ver. 1.

0

24.07.01

Zusammenfassung „Einführung in die Operations Research I/II“ bei Prof. Neumann I. Lineare Optimierung

Die Lineare Optimierung ist dadurch gekennzeichnet, daß sowohl die Zielfunktion wie auch die Funktionen der Entscheidungsparameter linear sind, d.h. Geraden in einem Koordinatensystem bilden. Beispiele: Produktionsplanung: Wie optimiere ich bei beschränkter Faktoreinsatzmenge und mehreren Outputs meinen Gewinn? Transportproblem: Welches Lager beliefert welchen Kunden mit welcher Menge? Verkehrsnetze: Welches ist der kürzeste / schnellste Weg durch das Netz? Tourenplanungsproblem: Wie erreiche ich auf kürzestem Weg in kürzester Zeit meine Kunden? Zuordnungsproblem: Welche Bewerber soll ich auch welche Stelle setzten und wonach auswählen? Verschnittproblem: Wie wähle ich mein Schnittmuster, so daß möglichst wenig Verschnitt entsteht?

II.

Nichtlineare Optimierung

Nichtlineare Optimierung muß dann angewendet werden, wenn auch nur eine nichtlineare Zielfunktion oder Nebenbedingung auftritt. Dies ist häufig bei wechselseitigen Abhängigkeiten von Einflußgrößen der Fall. Beispiel: Nichtlineare Produktionsplanung: Wie produziere ich effizient, wenn der Energiebedarf schwankt und ich günstigere eigene Energie und teure Fremdenergie zur Verfügung habe, welche sich aus Bereitstellungs- und Verbrauchskosten zusammensetzt?

III.

Dynamische Optimierung

Diese Art der Optimierung ist meistens unter Berücksichtigung von nichtlinearen Zusammenhängen bei planungsablaufabhängigen Problemen der Fall. Hier können auch Prognosen in die Planung mit einfließen. Beispiel: Ersatzteilbeschaffung: Welches Ersatzteil verwende ich, wenn sie zu unterschiedlichen Preisen und Lebensdauern zur Verfügung stehen? Dynamische Lagerhaltung: Verringerung von Stillstandzeiten durch Pufferhaltung. Maschinenbelegungsplanung: Wie kann ich meine Stillstandszeiten einer Fertigungsstraße minimieren? Warteschlangen: z.B. Supermarktkassenschlange bei zufallsbedingter Ankunft und Kassiermenge von Kunden.

1/1 © A. Jacob

Ver. 1.0

24.07.01

Inhaltsverzeichnis
Zusammenfassung „Einführung in die Operations Research I/II“ bei Prof. Neumann ............................ 1 I. Lineare Optimierung ......................................................................................................................... 1 II. Nichtlineare Optimierung .............................................................................................................. 1 III. Dynamische Optimierung.............................................................................................................. 1 Inhaltsverzeichnis................................................................................................................................. 2 Lineare Optimierung ................................................................................................................................ 3 Formulierung eines linearen Optimierungsproblems........................................................................ 3 Lösung des Problems ....................................................................................................................... 3 Typische Eigenschaften linearer Optimierungsprobleme................................................................. 3 Standardproblem der Linearen Optimierung .................................................................................... 3 Die entartete oder degenerierte Ecke............................................................................................... 4 Das Simplexverfahren ...................................................................................................................... 4 Kleinste-Index-Regel ........................................................................................................................ 5 Der Austauschschritt der Simplexmethode ...................................................................................... 6 Dualität.............................................................................................................................................. 6 Modifikationen des Standardproblems und Sonderformen des Simplex ......................................... 8 Sensitivitätsanalyse und parametrische Optimierung .................................................................... 10 Vektoroptimierung und Goal-Programming .................................................................................... 10 Zwei-Personen-Nullsummenspiele................................................................................................. 11 Graphen und Netzwerke .................................................................................................................... 12 Graphen und Digraphen auf Rechnern .......................................................................................... 13 Minimalgerüste ............................................................................................................................... 13 Kürzeste Wege in Netzwerken ....................................................................................................... 14 Kürzeste Wege zwischen allen Knoten .......................................................................................... 15 Elemente der Netzplantechnik........................................................................................................ 15 Das Gantt-Diagramm .................................................................................................................. 16 Flüsse in Netzwerken ..................................................................................................................... 16 Das Transportproblem .................................................................................................................... 17 Ganzzahlige und kombinatorische Optimierung ................................................................................ 18 Ganzzahlige Optimierungsprobleme mit total unimodularer Koeffizientenmatrix .......................... 19 Verfahren von Gomory zur Lösung eines rein ganzzahligen Optimierungsproblems.................... 19 Die Branch-and-Bound-Methode zur Lösung kombinatorischer Probleme.................................... 19 Branch-and-Cut-Verfahren ............................................................................................................. 20 Nichtlineare Optimierung ....................................................................................................................... 22 Spezialfall der nicht-linearen Optimierung: konvexe Optimierungsprobleme ............................. 22 Lagrange-Funktion und Karush-Kuhn-Tucker-Bedingung .......................................................... 22 Dynamische & stochastische Modelle und Methoden ........................................................................... 24 Problemstellung der allgemeinen dynamischen Optimierung .................................................... 25 Bellmansches Optimalitätsprinzip................................................................................................... 25 Bellmansche Funktionalgleichung .................................................................................................. 25 Bellmansche Funktionalgleichungsmethode .................................................................................. 25 Lagerhaltung................................................................................................................................... 27 EOQ-Modell (economic order quantity........................................................................................ 27 Deterministisches dynamisches Modell ...................................................................................... 28 Warteschlangen ................................................................................................................................. 29 Das Wartesystem M|M|1............................................................................................................. 29 Das Wartesystem M|M|s ............................................................................................................. 31

2/2 © A. Jacob

Ver. 1.0

24.07.01

Lineare Optimierung
Formulierung eines linearen Optimierungsproblems
a) Spezifikation der gesuchten Größen bzw. Entscheidungsvariablen b) Formulierung aller Nebenbedingungen des Problems als lineare Gleichungen oder Ungleichungen für die Entscheidungsvariablen (inkl. Nichtnegativitätsbedingung) c) Spezifikation der Zielfunktion in Form einer linearen Funktion der Entscheidungsvariablen, die zu minimieren oder maximieren ist.

Lösung des Problems
a) Graphisch: Möglich bei zweidimensionalen Problemen. Grenze den möglichen Bereich M durch die Nebenbedingungen ab und maximiere bzw. minimiere die Zielfunktion durch Verschieben der Geraden. b) Analytisch: Setze das Simplexverfahren ein.

Typische Eigenschaften linearer Optimierungsprobleme
a) Der zulässige Bereich M ist ein Vieleck. b) Das Optimum wird auf dem Rand (Ecke oder Gerade) angenommen. c) Mindestens eine Ecke des zulässigen Bereichs stellt eine Optimale Lösung dar.

Standardproblem der Linearen Optimierung
 Min F ( x) := cT x  L  u.d .N . Ax = b  x≥0 
mit: A eine beliebige mxn-Matrix n c ein beliebiger Vektor des R m b ein beliebiger Vektor des R

Jedes Optimierungsproblem muß zunächst auf die Standardform gebracht werden, um die optimalen Lösungen zu bestimmen. Die Menge jener optimalen Lösungen ist konvex.
j j

x = ( x1 ,..., xn ) r ∈ M ist

genau dann Extrempunkt, wenn diejenigen Spaltenvektoren a von A linear unabhängig sind, deren Koeffizienten x in der Darstellung

∑x a
j j =1

n

j

= b positiv sind.

Graphisch ist der zulässige Bereich M vom LP ein konvexes Polyeder. Konvexität liegt vor, wenn die Verbindungslinie zweier beliebiger in der Menge liegenden Punkten ebenfalls in der Menge enthalten ist. Die Extrempunkte von M sind die Ecken des zulässigen Bereichs. Die meisten Probleme liegen nicht in der Standardform vor. Dann ist wie folgt vorzugehen: 1. Schlupfvariablen so einführen, daß Gleichheit geschaffen wird: 2. Maximum in Minimum umwandeln: Max 2 x1 + 5 x2 3. Substitution bei nicht eindeutiger Nichtnegativitätsbedingung:

x1 + x 2 ≤ 1 ⇒ x1 + x 2 + x3 = 1 ⇒ Min − 2 x1 − 5 x2

x1 ≥ 3  x1' = x1 − 3  x1 = x1' + 3 einsetzen in Optimierungsproblem. 4. Substitution bei nicht vorhandener Nichtnegativitätsbedingung: Führe ein x3 (≥ 0) ein mit x3 := max(− x1 ;− x2 )  x1' = x1 + x3 x = x' − x  1 1' 3 einsetzen in Optimierungsproblem. ' x2 = x2 + x3 x2 = x2 − x3

So ist garantiert, daß beide Zahlen im positiven Bereich liegen oder Null sind.

3/3 © A. Jacob

. wobei diese bei einer entarteten Ecke nicht eindeutig T ist.0) ist Basislösung mit x1 . Dazu wird eine bisherige NBV zu einer BV und eine BV zu einer NBV.d . Graphisch: x besitzt eine dazugehörige Basis.x5=0 gilt. so daß eine Vergrößerung einer NBV auf jeden Fall einen größeren ZF-Wert ergeben würde. Da längs der drei Geraden x3.. macht sich die entartete Ecke im Simplex dadurch kenntlich. der zu minimieren ist. x m . Man gelangt somit zur nächsten Ecke. Dabei gilt: x := ( x1 .0 24. 4 x1 + x2 + x3 = 10 x1 + x2 + x4 = 4 − x1 + 2 x2 + x5 = 4 x1 . Da 2<rgA=3 Die Ecke ist entartet.. Das Simplexverfahren Das Prinzip: Durch das Simplexverfahren erhält man eine endliche Folge von Ecken des zulässigen Bereichs M.. daß die Ecke x von M mit weniger als m positiven Komponenten bestückt ist.. dass ein xk aus Feld 5 Null ist und die Zeile weniger als m positive Komponenten hat. 1.01 Max 2 x1 + 5 x2 x1 + x2 ≤ 9 − x1 + 2 x2 ≤ 5 x1 ≥ 3 x2 ≥ 2 u. Tutorium Aufgabe 9.. der noch nicht zur Basis gehört.N . wird gegen einen aus der Basis ausgetauscht.. Jacob ... hat die entsprechende Ecke nur die beiden positiven Komponenten x3.N . Das Ziel: Alle NBV müssen in der Zielfunktion (ZF) positiv sein. Im dualen Simplex müssen es mehr als m positive Komponenten sein. Anschaulich: Einer in der Matrix A befindlichen Spaltenvektoren...d .Ver... 4 x1 + x2 ≤ 24 Beispiel: Min − 2 x1 − 5 x2 ' ' u... x5 ≥ 0 ' ' ' ' ' (vgl... um auf das Standardproblem der linearen Optimierung zu gelangen. Von einer Ecke ausgehende erhält man die benachbarte Ecke durch einen Austauschschritt. Die Basis einer solchen Ecke ist nicht eindeutig.. Ausgegangen wird immer vom Standardoptimierungsproblem.b) Die entartete oder degenerierte Ecke Diese Besonderheit ist dadurch charakterisiert. zu denen drei Schlupfvariablen hinzukommen. x2..0 Nichtbasisvariablen (NBV) Im Simplex: Wie später zu sehen sein wird.. 3 Ein Beispiel: Wir haben im R drei Geraden gegeben. daß graphisch gesehen sich drei oder mehr Geraden in einem Punkt schneiden oder analytisch ausgedrückt. 4/4 © A.07... Also bildet A eine (5x3)-Matrix mit rgA=3... xm Basisvariablen (BV) Jede Ecke x Ecke von M ⇒ x gehört zum zulässigen Bereich 0.0.

4) mit N = (1 . da ' x2 erhöht werden darf. welche die ZF am stärksten minimiert (hier -5 < -2 in der ZF). Kleinste-Index-Regel Damit ein Kreisen im Simplex bei einer entarteten Ecke verhindert wird.2' ) 9 5 1 1   ξ = − x1' − x5 − 26 = −2 x1' − 5 x2 ' − 16 = −2 x1' − 5( x1' − x5 + 2) − 16 2 2 2 2   9 ' 1 x3 = − x1 + x5 + 8 2 2 3 ' 1 x4 = − x1 + x5 + 2 2 2 1 1 ' ⇒ x = (0.0)T x2 = x1' − x5 + 2 ZF = −26 2 2 Da alle Komponenten von x positiv sind.01  4 1 1 0 0 10      1. d. Transformation durchführen: N = (1' .4.10.0.4. 4.5) 2. Standardform: A =  1 1 0 1 0  b =  4  cT = (−2. bis 5. Jetzt stellt sich die Frage. x5 ≥ 0 ): ' ' x3 = −4 x1' − x2 + 10 ≥ 0  x2 ≤ 10 ' ' x4 = − x1' − x2 + 4 ≥ 0  x2 ≤ 4 ' ' x5 = x1' − 2 x2 + 4 ≥ 0  x2 ≤ 2 ⇐ 5.. ohne den zulässigen Bereich zu ' verlassen ( x1 = 0 und x3 . 1. B = (3.0 Beispiel (Fortführung obiger Umformungen): 24.Ver.0.2. Minimum aus Feld 5.4. Die NBV müssen nun in die Basis aufgenommen und die BV aus der Basis entfernt werden.2 ). Dies wird auch Austauschschritt genannt. Die ZF ist nur Funktion der NBV 2. B = (3. ist dies der minimale ZF-Wert. Jacob .8. Ansonsten wären die Schritte 2. wie weit ' x2 .2. wählt man als Pivotspaltenindex l‘ und als Pivotzeilenindex k‘ jeweils den kleinstmöglichen Index: l ':= min{l ∈ N ζ l < 0} . Es wird immer diejenige NBV hinzu genommen. die in keiner anderen NB auftritt.h.07.0.5). Jede NB enthält genau eine BV mit Koeffizient 1..0)  −1 2 0 0 1  4     T ' ' Die erste Ecke ergibt sich somit zu x = (0.. zu wiederholen.. Nun muß man die aktuelle Basis als Funktion der NBV darstellen: ξ = −2 x1 − 5 x2 − 16 x3 = −4 x − x + 10 ' x4 = − x1' − x2 + 4 ' x5 = x1' − 2 x2 + 4 ' 1 ' 2 ' ' ( ZF ) dabei gilt: 1. 3.−5. des Simplextableaus k ':= Minimum des Index aus Feld 7. des Simplextableaus 5/5 © A.

h. erhielte man wieder das Ausgangsproblem (P). Basisvariablen 2. Pivotspalte ohne Pivotelement: c -c/a =: c (Wird oftmals in einer Hilfsspalte rechts neben dem Tableau ausgeschrieben) IV.07. Gilt: ζ l > 0 ∀l ∈ N die aktuelle Ecke x ist die optimale Lösung des Problems.Ver. Pivotzeile ohne Pivotelement: b b/a III. hat die Pivotspalte keine positiven Elemente keine optimale Lösung! Sonst: Berechne Feld 7. muß man ebenfalls Austauschschritte durchführen. Jene Spalte wird zur Pivotspalte l‘. Ist x eine entartete Ecke. d.01 Das Simplextableau Jede Ecke im Simplexverfahren kann in folgendem Simplextableau dargestellt werden: Dabei gibt es folgende Felder: 1. Sonst: Wähle das kleinste ζ l aus (bei mehreren: kleinster Index). Die Aufstellung des dualen Problems folgt folgenden Regeln. welche für beide Seiten gültig sind: 6/6 © A. Vorfaktoren der Zielfunktionswerte 6. Rechte Seite der Nebenbedingungen geteilt durch das Pivotspaltenelement (wichtiges Feld bei der Determinietung einer entarteten Ecke) Der Austauschschritt der Simplexmethode Um nun ausgehend von den im Simplextableau eingetragenen Daten zur optimalen Lösung zu gelangen. Gilt: γ kl ' ≤ 0 . für alle γ kl ' > 0 ! 3. Jacob . die Indizes k‘ und l‘. und 2. den kleinsten Wert aus. wenn alle Elemente in 5. Negativer Zielfunktionswert 7. d. Diese Form des Optimierungsproblems wird bei Strategien in der Spieltheorie. auch primäres Problem genannt. 1. mindestens ein xk in 4. 2. Nichtbasisvariablen (anfangs Schlupfvariablen) 3. Vertausche in den Feldern 1. Vorfaktoren der Nebenbedingungen 4. Flüsse in Netzwerken. Pivotelement: a 1/a II. Dualität Zu jedem linearen Optimierungsproblem (P). Rechte Seite der Nebenbedingungen 5. Wähle aus Feld 7. Übrige Elemente: d d – bc/a = d+b c Anschaulich: altes Element + (Altes Zeilenelement ⋅ neues Spaltenelement) Zum optimalen Ergebnis kommt man. Kostenplanung im Rahmen der Netzwerktechnik und weiteren Anwendungen benötigt. Verfahre mit den übrigen Feldern nach folgenden Regeln: I.0 24. ist gleich 0. 4. Diese sind in diesem Fall an den Feldern des Tableaus orientiert: 1. größer als Null sind. Die zugehörige Zeile heißt Pivotzeile k‘.h. bestimmt l‘ gemäß der kleinsten Indexregel. Würde man das duale Problem wiederum dualisieren. 5. gibt es ein duales lineares Problem (P).

xj = 0 sein.N .N .. damit zu produzieren. da es reicht. das Einfachere per Simplex zu lösen. dann hat die entsprechende NB vom dualen Problem keinen Schlupf ( = )! Anwendung: Meistens ist man aus Bequemlichkeit geneigt. Ax = b  x≥0  ⇒ Max G (u ) := bT u  L  u... AT u ≤ c  u ∈ Rm  Bei einer optimalen Lösung beider Probleme müssen die folgenden Optimalitätsbedingungen zutreffen:  m  x*  ∑ aij ui* − c j  = 0 j  i =1    q u *  ∑ aij xi* − b j  = 0 j    i =1 j = (1. Jacob . eine Lösung des dualen Problems anzugeben.d .d . Beispiel: Es soll eine Entscheidung darüber gefällt werden..07.01 Primales Problem P (Duales ProblemP) Minimumproblem Variable Vorzeichenbeschränkte Variable Nicht vorzeichenbeschränkte Variable Koeffizienten der Variablen in der ZF Koeffizientenmatrix Duales ProblemP (Primales Problem P) Maximumproblem Echte Nebenbedingung Ungleichung (≥ beim Minimumproblem. um auch die duale Lösung zu erhalten. 1. ob die vorhandenen Rohstoffe verkauft werden sollen oder ob es rentabler ist. indem man das primale Problem mit der dualen Simplexmethode löst und sich danach den Satz den komplementären Schlupfes zunutze macht.Ver. m) Satz vom komplementären Schlupf: Hat dabei eine NB von primalen Problem im Optimum Schlupf (< oder >).. q) j = (1.. Das duale Problem kann es einem erleichtern. damit die erste Gleichung erfüllt wird.. also keine produzierte ME.h. einen optimalen ZF-Wert zu finden. Es seien: xj := Anzahl der produzierten ME des Produktes Pj cj := Durch Fertigung einer ME von Pj erzielbarer Gewinn aij := Benötigte ME des Rohstoffs i zur Herstellung einer ME von Pj yi := Verkaufspreis einer ME des Rohstoffs  m  x*  ∑ aij yi* − c j  = 0 j  i=1  ⇒ ∑a i =1 m ij yi* > c j (Verkauf der Rohstoffe besser als Produktion) In diesem Fall muß.0 24. ≤ beim Maximumproblem). Variable ≤0 NB ≥0 Gleichung Rechte Seite der NB Transponierte der Koeffizientenmatrix Dualitätstheorem: Haben beide Probleme (L) und ( L ) zulässige Lösungen. d. so besitzen beide Probleme optimale Lösungen mit identischen ZF-Werten! Dies kann bei der Lösung eines Problems ausgenutzt werden. da bei bekannten zulässigen Lösungen für x und u das ursprünglich Problem eingeschlossen werden kann: G(u) ≤ F* ≤ F(x) 7/7 © A.. Beispiel:  Min F ( x) := cT x  L  u.

) oder ihre untere Grenze α‘l (Fall b. falls nicht schon Fall a) oder b) durch ein angebrachtes + oder – erfüllt ist. um den ZF-Wert zu verkleinern.07.01 Opportunitätskosten. Jacob . wenn xl‘ = βl‘ Wert der NBV verringern. indem man obere und untere Grenze beispielsweise in eine Tabelle einträgt. wenn man die verfügbare Menge eines Produktionsfaktors Ri um eine Einheit von bi auf bi+1 erhöht. Die Nichtbasisvariable x’l kann ihre obere Grenze β‘l (Fall a. Nun muß man die „Luft“ ermitteln. Drei verschiedene Möglichkeiten im Simplex kommen hier in betracht: I. Gilt δ‘=∞. 2. Eine Basisvariable xk kann ihre untere Grenze αk >0 erreichen II. dass die in die entsprechende NB eingesetzte optimale Lösung nicht zur vollen Ausreizung der NB führt.Ver. Eine Basisvariable xk kann ihre obere Grenze βk >0 erreichen III. Vorgehen: 1. oberen Schranke hat. Untere und obere Grenze für einzelne Variablen Beispielsweise sei hier der Fall von Lieferverpflichtungen (untere Grenze) und andererseits Kapazitätsbeschränkungen (obere Grenze) bei der Höchstmenge erwähnt. um den ZF-Wert zu verkleinern. Jetzt wird für die beiden Spielräume sowie für den gesamten Abstand das Minimum δ‘ gesucht: 5.) erreichen. Wähle für die Pivotspalte den kleinsten Index. 8/8 © A. Variablen ohne Vorzeichenbeschränkung Vorgehen: Führe eine zusätzliche Variable x’n+1 ein. den man mehr einnimmt. Bei der Optimierung im Simplex werden Fall a. setze sie gleich ∞ ! 4. die die entsprechende Variable zu ihrer unteren bzw. 2. Dieser Spielraum wird hier durch δ1 (untere Schranke) und δ2 (obere Schranke) dargestellt: Falls keine solchen δ1 oder δ2 existieren. 1. Zunächst sollte man sich der Grenzen der Variablen bewußt werden. b) Falls ζl‘ >0. und Fall b. 3.0 24. wenn xl‘ = αl‘ Wert der NBV anwachsen lassen. Modifikationen des Standardproblems und Sonderformen des Simplex 1. alle mit – markierten Spalten einen positiven ZF-Wert haben optimale Lösung. Im Simplextableau wird die entsprechende Spalte mit – markiert. Ziel: Im Simplex müssen alle mit + markierten Spalten einen negativen. Im Simplextableau wird die entsprechende Spalte mit + markiert. Ist vi*>0. so ist der Faktor knapp (mehr von dem Faktor bringt mehr Gewinn). so daß x‘σ = xσ + x’n+1 = 0 (σ = alle nicht vorzeichenbeschränkte Variablen) gilt (x’n+1 ist diejenige positive Variable. die addiert zur kleinsten xσ Null ergibt). folgendermaßen behandelt: a) Falls ζl‘ <0. Knappheitskosten oder Schattenpreise vi* ist derjenige Betrag. so existiert keine optimale Lösung des Problems. Knappheit erkennt man daran.

Markiere die Spalte mit + und verringere die Werte xk in Feld 4 um δ‘γkl‘ und den Wert in Feld 6 um δ‘ζl‘ und gehe wieder zu Schritt 1. Ziel: Alle xk in Feld 4 müssen größer als Null sein. 1.d .07. so existiert keine optimale Lösung. so markiere k‘ mit + und ersetze in Feld 4 xk‘ durch xk‘ .N . Beispiel: Siehe Buch Seite 101 oder Tutorien Aufgabe 28. Die Duale Simplexmethode Warum?: Diese Methode erlaubt die Lösung von linearen Optimierungsproblemen. Gilt hierbei δ‘= δ2.xl‘. so markiere k‘ mit – und ersetze in Feld 4 xk‘ durch xk‘ . Addiere zum Wert der neuen BV nach der Transformation den Wert der entsprechenden NBV vor der Transformation. Forme die Felder 3 bis 6 nach den Simplextransformationsregeln um. Diese Zeile ist Pivotzeile. Beispiel siehe Buch Seite 95! 3.Ver. für den das Minimum δ‘ angenommen wird. daß mindestens eine rechte Seite kleiner als Null ist. 7.d . w = 0  9/9 © A. daß man sich über Ecken des unzulässigen Bereichs in den zulässigen Bereich hangelt. z.0 24. Die vorangegangenen Ecken sind auf Schnittpunkten der Begrenzungsgeraden des zulässigen Bereichs angesiedelt. Jacob .N . 6. Die Dreiphasemethode Warum?: Dieses Verfahren wird benötigt. A x + y = b  A2 x + w = b 2   x. so ist keine Austauschschritt nötig. Gilt hierbei δ‘= δ1.βk‘. Vorgehen Simplex: Im Vergleich zur primalen Methode wird zuerst die Pivotspalte anhand Feld 7 und dann die Pivotzeile bestimmt. A x ≤ b  A2 x = b 2   x≥0  ⇒  Min c T x  1 1  u.αk‘. Ansonsten wähle für k‘ den kleinsten Index k. nicht nur solche vom Typ (L). Anschaulich: Grundsätzliches Vorgehen ist. so ist keine Austauschschritt nötig. y ≥ 0. um ganz allgemein gehaltene Lineare Optimierungsprobleme zu lösen. 4. Markiere die Spalte mit – und erhöhe die Werte xk in Feld 4 um δ‘γkl‘ und den Wert in Feld 6 um δ‘ζl‘ und gehe wieder zu Schritt 1. Erkennen lassen sich solche Probleme daran. wie sie für die primale Simplexmethode der Form (L) notwendig ist.B. Nur die letzte Ecke ist schließlich zulässig und optimal. Dann wird wie in der primalen Methode vorgegangen.01 Gilt δ‘= xl‘ .: Min c T x  1 1  u. Sind jedoch zudem alle Elemente der Pivotzeile positiv. Vertausche in den Feldern 1 und 2 die Indizes k‘ und l‘. jedoch eine dual zulässige Anfangsbasislösung leicht angeben läßt. Gilt δ‘= βl‘ . die zwar keine Anfangsecke haben.αl‘.

daß man nicht alle ZF’s gleichzeitig zu ihrem Optimum bringen kann. Jacob . Die Phase ist beendet. Kostenminimierung bei gleichzeitiger Qualitätsmaximierung. Vorgehen: Wähle ein xk < 0 aus. Führe den Austauschschritt durch. daß sich Problemdaten im Laufe der Zeit verändern.B. Bei der Wahl der Pivotspalte ist lediglich zu beachten. In jedem Austauschschritt dieser Phase wird als Pivotzeile eine Zeile gewählt. so hat das Problem keine zulässige Lösung.01 Dabei muß man in sog. welche zu optimieren ist. Die ZF’s werden zu diesem Zweck in einem Vektor zusammengefaßt. Sind alle γkl < 0. Ziel dieser Phase ist es. daß das Pivotelement nicht gleich Null ist.Ver. Lösung: Die Lösung des Problems wird in folgenden drei Phasen abgebildet: 1. 2. Nun können jedoch auch mehrere Zielfunktionen mit den gleichen NB’s in einem Problem zusammengefaßt werden. eine zulässige Basislösung zu finden. Vektoroptimierung und Goal-Programming Bisher betrachtete Optimierungsprobleme hatten eine ZF. im unteren die NB’s mit Hilfsvariablen. und sog. D. daß diese Daten zunächst als fix angesehen werden und im nachhinein (ex post) analysiert werden. Abgesehen von w=0 entspricht das Optimierungsproblem der Standardform (L). setze δ = wahr. Dies wird in folgendem Simplextableau der Dreiphasenmethode ersichtlich: Im oberen Abschnitt stehen die echten NB’s. Benutze die primale Simplexmethode zur endgültigen Lösung. sonst δ = falsch. 3. zu erreichen. d. Die Zeile k‘ dieser Zahl ist die Pivotzeile. z. Sensitivitätsanalyse der Form. Dabei können folgende Lösungen der Problems auftreten: 10 / 10 © A. da sie sich gegenseitig beeinflussen. daß nur qualitativ gleichwertige Lösungen berücksichtigt werden. 1. Sollten alle γkl > 0 sein. unterscheiden.0 24. es kann sich zwar die optimale Lösung und der zulässige Bereich verändert. Sollte dies der Fall sein. Das Problem ist. Sensitivitätsanalyse und parametrische Optimierung Nun soll der Fall zugelassen werden. die einer der Hilfsvariablen wi einspricht. hier w. Hilfsvariablen. bei Messungen bestimmter technischer Größen auf. so daß es immer nur einen „besten Kompromiß“ geben kann. δ = wahr: Beginne Phase 2 von Neuem. es wird jedoch vermieden. wähle aus dieser Spalte κ unter den negativen γkl das Kleinste und nimm jene Spalte als Pivotspalte. Beispiel: Siehe Buch Seite 109 oder Tutorien Aufgabe 27. wie x und y. zu einer nächsten Ecke überzugehen. Die geschieht bei der sog. sobald alle Hilfsvariablen NBV’s geworden sind.h. Gelöst kann ein solches Problem letztendlich dadurch. echt Schlupfvariablen. daß alle Inhalte von Feld 4 nichtnegativ sind. Nach der Transformation des Tableaus kann die entsprechende Spalte gestrichen werden. so spricht man von einer parametrischen Optimierung. + δ = falsch: Berechne xi/γil‘ für alle j ∈ B mit γil‘ > 0 und wähle die Kleinste. Dies tritt z.B.h.07.

Das Goal-Programming berücksichtigt zusätzliche zu der reinen Vektoroptimierung eine Gewichtung der verschiedenen ZF’s. so kann sie gestrichen werden.. z. Sie wird dominiert. so kann sie gestrichen werden. Stimmen die beiden Werte überein.07. Demnach ist es bei dieser Spielvariante sinnvoll..5 × Zeile 2 ≥ Zeile 3.Ver. 2. 1. daher ist beim zweiten Spieler der Vorteil in den kleineren Werten! Partie: Einmalige Ausführung des betrachteten Spiels Gewinn (Auszahlung): Gewinn oder Verlust abhängig von der gewählten Strategie s∈S bzw. das nicht als reines Sattelpunktspiel vorliegt: Um solche Spiele zu lösen. für diese Spielvariante gilt: min max f ( x.m...r} c lT x * ≤ c lT x ∀x∈M. t∈T Nullsummenspiele: Summe aller Gewinne ist gleich Null.h. welches eine optimale Lösung des Spiels ist.. Spieler 1 verfolgt Strategie S und Spieler 2 Strategie T Reine Strategie: Die Spieler bleiben während der gesamten Partie bei einer Strategie Gemischte Strategie: Die Spieler wechseln während einer Partie ihre Strategie Optimale Gegenstrategie: Strategie des einen Spielers dominiert die Strategie des anderen.B. lT 2. Das Maximum der Minima aus den Zeilen und das Minimum der Maxima aus den Spalten ermitteln. Diese Mischung aus verschiedenen Strategien wird mit einer Wahrscheinlichkeit behaftet.h.. die Spieler genannt werden. an denen mehrere Akteure. daß der Gewinn des einen Spielers den Verlust des anderen Spielers ausmacht.. wenn Spieler 2 Strategie tj wählt.01 D. Auszahlungsmatrix: A bestehend aus aij := a(si. Diese Vektoren werden 11 / 11 © A. l∈{1.. 0. falls gilt: D. d. müssen während eines Spiels Strategiewechsel der beteiligten Personen stattfinden. Dominanz von Strategien: Ist eine Zeile in der Auszahlgsmatrix in allen Elementen kleiner oder gleich einer anderen. an denen zwei Spieler beteiligt sind. d. Vorsicht: Auszahlungsmatrix immer aus Vorteilssicht des einen Spielers.. Papier-Stein-Schere-Knobeln Sattelpunktspiele: Es gibt ein optimales Strategiepaar.tj) (i=1.. positive Gewinne von Spieler 2 werden mit einem – versehen. jetzt kommt „taktisches Geschick“ mit ins Spiel.n) mit aij = Auszahlung an Spieler 1 bei Strategie si. Zunächst ein paar Begriffsdefinitionen: Strategie: Vollständige Handlungsanweisung. Ist eine Spalte in der Auszahlungsmatrix in allen Elementen größer oder gleich einer anderen. für das gilt: 24.. die für alle auftretenden nicht beeinflußbaren Fälle definiert ist.B. Es können auch anteilig Zeilen verglichen werden. nämlich die Optimale. ein l ∈ {1. Exhaustiv alle Strategien beider Spieler festlegen und in x.(Spieler 2) und y-Richtung (Spieler 1) an die Auszahlungsmatrix notieren. Gilt für alle Elemente < (>).h. wenn obige Bedingung für beide Fälle 0 ist. Jacob . handelt es sich um ein Sattelpunktspiel. Faires Spiel: Ein Sattelpunktspiel ist fair. so daß sich für Spieler 1 der Vektor x und für Spieler 2 der Vektor y mit den Wahrscheinlichkeitsverteilungen ergibt.5 × Zeile 1 + 0. c kT x ≤ c kT x * für k= 1. Ein Spiel mit gemischten Strategien ist fair.r (r = Anzahl der ZF’s) c lT x < c lT x * für min. so spricht man von strenger Dominanz. eine reine Strategie zu verfolgen.h. in dieser Situation kann kein Zielkriterium verbessert werden. ohne daß ein anderes verschlechtert wird. Dies alles unter der Voraussetzung. x* ist pareto-optimal. x* ist individuell-optimal für c . z..r} Zwei-Personen-Nullsummenspiele In der Spieltheorie werden Entscheidungssituationen untersucht.. Lösung eines Matrixspiels. Sie wird dominiert. y ) gleichbedeutend mit y x x y - Min(Max(Spalten))=Max(Min(Zeilen)). Hier werden im speziellen nur Spielsituationen betrachtet. Das Vorgehen bei Bestimmung der optimalen Lösung eines Spiels: 1.. da sie für Spieler 1 einen Verlust darstellen. deren optimale Entscheidungen auf der Lösung von zwei dualen linearen Optimierungsproblemen beruhen.0 1.. beteiligt sind. j=1... y ) = max min f ( x.. dabei immer aus Sicht von Spieler 1 vorgehen. es ist eine ZF optimaler als alle weiteren r-1 ZF’s.. wenn w=0 ist. falls keine x ∈ M existiert. Ausfüllen der Matrix. 3..

j enthalten) und 0 (Kante i. Schlingen: Anfangs. Kreisfreier Graph (zyklenfreier Digraph): Ein Graph (Digraph) ohne Kreis (Zyklus) Semipfeilfolge (Semiweg): Nicht alle Pfeile in einer Pfeilfolge haben die gleiche Orientierung im Dipgraphen. aber selbem Anfangs. Kette: Kantenfolge mit lauter verschiedenen Knoten Kreis (Zyklus): Kantenfolge mit lauter verschiedenen Zwischenknoten. Vollständiger Graph: Ein Graph heißt vollständig. Starker Zusammenhang: Wenn für alle Knoten gilt: Knoten i ist von j aus zu erreichen und j von i aus. Schwacher Zusammenhang: Je zwei Knoten im Digraphen sind miteinander verbunden. Senke: Knoten im Digraphen. Aufstellen des Anfangstableaus mit Maximierung der Gewinne unter den NB’s der Auszahlungsmatrix. der keinen Vorgänger besitzt. Graphen und Netzwerke Grundlegende Definition der Begriffe: Inzidenzabbildung: Die Verbindung eines Knotens mit einem anderen. X(S) und Y(T) sind Strategiemengen.und Endknoten im Graphen (Digraphen). Aus der Perspektive der Knotens kann er positiv inzident (Pfeil geht vom Knoten weg) oder negativ inzident (Pfeil weist zum Knoten hin) sein.j> auch der Pfeil <j. Jacob . so daß z. Induzierter Teilgraph: Enthält zu den übernommenen Knoten alle Kanten des zugrundeliegenden Graphen. daß jedes Element der Matrix positiv wird. Echter Teilgraph: Enthält z. Baum: Zusammenhängender kreisfreier Graph Wald: Kreisfreier Graph mit k Zusammenhangskomponenten (aus k Bäumen) Gerichteter Baum: Schwach zusammenhängender Digraph 12 / 12 © A. der auf den Endknoten hinweist. Gerichtete Kante (auch Pfeil): Es existiert in diesem Fall ein Anfangsknoten und ein Endknoten.j nicht enthalten) Inzidenzmatrix: Matrix mit den Elementen 1 (Knoten eµ inzident mit i) und 0 (Knoten eµ nicht inzident mit i) Inzidenzmatrix für Digraphen: Matrix mit den Elementen 1 (Knoten eµ positiv inzident mit i). wenn mit jedem Pfeil <i. w* ist der optimale ZF-Wert. versehen mit einem Pfeil. 4. Zusammenhang: Je zwei Knoten im Graphen sind miteinander verbunden. Antisymmetrischer Digraph: Ein Digraph ist antisymmetrisch.j>) enthalten ist. Das Vorgehen bei Bestimmung optimaler Strategien: 1. Topologische Sortierung: Für jeden Vorgänger k eines Knotens i gilt k < i und für jeden Nachfolger j von i gilt j > i.j] (<i.B. Dualisiere die Lösung des Problems. 3. Adjazenzmatrix: Matrix mit den Elementen 1 (Kante i. In jeder Spalte sind genau zwei Elemente von 0 verschieden.h. die alle möglichen Strategien enthalten.und Endknoten sind der Gleiche. wenn mit je zwei verschiedene Knoten i und j auch die Kante [i. wenn der Graph keine Paare entgegengesetzt gerichteter Pfeile enthält. die Knoten und Kanten des zugrundeliegenden Graphen. Schlichte Graphen: Keine Schlingen und parallele Kanten bzw. der keinen Nachfolger besitzt.T.0 24. Quelle: Knoten im Digraphen. u1* als Dualvariable den ersten Wert aus Feld 5 des Tableaus erhält. x*:=u*/w* und y*:=v*/w* sind die optimalen Strategien von Spieler 1 und 2. -1 (Knoten eµ negativ inzident mit i) und 0 (Knoten eµ nicht inzident mit i) In jeder Zeile der Inzidenzmatrix stehen demnach die Knoten und in jeder Spalte die Kanten bzw. Parallele Kanten (parallele Pfeile): Wenn zwei oder mehr Kanten den gleichen Endknoten oder den gleichen Endknoten und Anfangsknoten haben. Die Knoten müssen hierfür durchnummeriert sein und sukzessive abgearbeitet werden.07.01 gemischte Strategie der jeweiligen Spieler genannt. Addiere zu allen Elementen der Auszahlungsmatrix eine Konstante α>0 derart. Das so entstandene lineare Optimierungsproblem ist zu lösen.i> enthalten ist. d. w=1/w*-α ist der Wert des Spiels. 1. Gerichteter Graph oder Digraph: Mit Pfeil versehen. 2.Ver. Pfeile. Pfeile Zusammenhängender Graph: Alle Knoten sind von jedem Knoten im Graphen zu erreichen. Ungerichteter Graph: Nicht mit Pfeil versehen. Symmetrischer Digraph: Ein Digraph ist symmetrisch.

der sich in der zweidimensionalen Ebene zeichnen läßt. Forward-Star-Speicherung (Nachfolgerliste) von Digraphen: Notation: n : Knotenanzahl from : Liefert den Zeiger auf die Anfangsposition der Nachfolgerliste in succ. gibt die Anzahl der Vorgänger im Digraphen an R(i) := Menge der vom Knoten i erreichbaren Knoten im Digraphen 2(i) := Menge derjenigen Knoten. Wähle Kante (mit beiden Endknoten) mit kleinstem Gewicht (bei mehreren beliebig) 2. daß nur Verbindungen zwischen den beiden Teilen. Bipariter Graph (Digraph): Die Knotenmenge ist so in zwei Teile teilbar.h. Symbolik: Pfeil über Buchstaben ist ein Hinweis auf gerichtete Graphen [i. kreisfrei und zusammenhängend).E> ist das Symbol für einen Digraphen mit der Knotenmenge V und der Kantenmenge E N(i) := Menge der Nachbarn von i im Graphen P(i) := Menge der Vorgänger von i im Digraphen S(i) := Menge der Nachfolger von i im Digraphen δ(i) := Grad von i.h. Mit jedem weiteren Schritt Kante mit kleinstmöglichem Gewicht hinzufügen.Ver. Verfahren von Kruskal: 1. Gerüst: Zusammenhängender Teilgraph mit allen Knoten und minimaler Kantenanzahl. gibt die Anzahl der Nachbarn im Graphen an + δ (i) := positiver Grad (Ausgangsgrad) von i. gibt die Anzahl der Nachfolger im Digraphen an δ (i) := negativer Grad (Eingangsgrad) von i. Planarer Graph: Ein Graph. heißt planar.j] := spezifiziert den Anfangsknoten i und den Endknoten j im Graphen <i. überflüssige Kanten werden weggelassen. wenn sämtliche Knoten der anderen Seite von sämtlichen dieser Seite erreicht werden. löschen oder ergänzen nur am Ende des Stapels möglich (LiFo-Speicher) Schlange (queue): Zugriff nur am Kopf der Schlange möglich (FiFo-Speicher) Heap: Elemente werden in den Knoten eines binären.07. kein direkter Zugriff auf eine Feld Stapel (stack): Zugriff.0 24. Minimalgerüste Die beiden folgenden Verfahren stellen einen Greedy-Algorthmus dar. welches diesen Weg bewertet. Verfahren von Prim: 1. Vollständig ist er. Weitere Schritte: Wähle Kante mit kleinstem Gewicht so. An der Differenz zweier Felder ist die Anzahl der vom Vorgängerknoten erreichten Felder ersichtlich. 13 / 13 © A. Durch eine lokal optimale Entscheidung wird sukzessive Teil um Teil die Lösung festgelegt. balancierten Baumes gespeichert. 1. Bewerteter Graph: Jeder Kante des Graphen wird ein Element c zugewiesen. Insgesamt gibt es n+1 Felder dieser Art succ : Liste der Nachfolgerknoten cost : Bewertung der Kanten Backward-Star-Speicherung basiert auf einer Vorgängerliste. daß der Teilgraph keinen Kreis enthält (nicht unbedingt zusammenhängend). so daß der entstehende Teilgraph ein Baum ist (d. d.j> := spezifiziert den Anfangsknoten i und den Endknoten j im Digraphen [V. bei dem jeder Knoten höchstens zwei Söhne hat. Wähle Kante mit kleinstem Gewicht (bei mehreren beliebig) 2. die i im Digraphen erreichen können ∧(i) := Menge der vom Knoten i erreichbaren Knoten ohne i im Digraphen Graphen und Digraphen auf Rechnern Datenstrukturen zu Speicherung eines Graphen: Lineare Liste: Wandern von Feld zu Feld möglich. ansonsten ähnlich der Vorwärtsspeicherung. nicht jedoch innerhalb eines Teils realisiert ist. Jacob .01 - - Binärer Baum: Gerichteter Baum.E] ist das Symbol für einen Graphen mit der Knotenmenge V und der Kantenmenge E <V.

der einen Knoten nur einmal aufnimmt. wodurch somit ein gerichteter Baum entsteht. Bellmansche Gleichung: d j = min ( d i + cij ) für j ∈ ∧(r) i∈P ( j ) Notation: px := Vorgänger von Knoten x dx := Distanz zum Knoten x cij := Bewertung der Strecke i – j Q := Speicher des Algorithmus (z. Demnach spricht man auch von Baumalgorithmen. 1. Label-CorrectingVerfahren wie LC-A können Knoten mehrmals aufnehmen und dann wieder eliminieren. Jacob .07.B.0 24. Schlange) Der Baumalgorithmus ist die allgemeine Optimierungsform. Bellmansches Optimalitätsprinzip: Teilwege kürzester Wege sind selbst wieder kürzeste Wege. Dies kann man sich bei der Suche eines kostenminimalen Weges zunutze machen. Heap.Ver. Label-Setting-Verfahren wie Dijkstra beschreiben die Art eines Algorithmus. Voraussetzungen: Bellmann: Der Baum muss topologisch sortierbar sein (also keine Zyklen) Dijkstra: Der Baum darf keine negativen Kosten enthalten 14 / 14 © A.01 Kürzeste Wege in Netzwerken Zunächst werden von einem Startknoten r kürzeste Wege zu allen übrigen Knoten ermittelt.

um die ein Vorgang verschoben werden kann.FEZi GP ist die maximale Zeitspanne.. wenn gilt: GPi = min GPk mit k = 0..und Endtermine aller Vorgänge 4. aus deren Inhalt die Entfernungen aller Knoten zueinander abzulesen sind. z.Ver. d. Symbolik: FAZi : frühest möglicher Start (Anfangszeitpunkt) von Vorgang i SAZi : spätest möglicher Start (Anfangszeitpunkt) von Vorgang i FEZi : frühest möglicher Abschluß (Endzeitpunkt) von Vorgang i SEZi : spätest möglicher Abschluß (Endzeitpunkt) von Vorgang i Di : Dauer von i FEZi = FAZi + Di und SEZi = SAZi + Di Gesamtpufferzeit eines Vorgangs: GPi = SAZi – FAZi = SEZi . Dabei steht der Zeilenindex für die Ursprungsknoten und der Spaltenindex für die Zielknoten der Pfeile. Die Tripeloperation besagt. d. verglichen und der kleinste der beiden Werte ausgewählt wird. in dem man die Summe aller Entfernungen zu allen anderen Knoten minimieren möchte. 1. Desweiteren setzt MPM die Start-Start-Beziehung voraus.-Abstände darstellbar. Anfangs. Jacob .B.h. Falls ein Wert in der Diagonale von links oben nach rechts unten kleiner als Null wird.0 24. diν+dνj.. In dieser Methode sind zeitliche Min.07. Kritische Vorgänge 3. daß das Matrixelement dij mit der Summe der „dij entsprechenden“ Elemente der Spalte ν und Zeile ν. Elemente der Netzplantechnik Zweck: Optimale Planung und Überwachung von Projekten (Vorhaben aus mehreren Teilarbeiten) Wichtige Größen in der Projektüberwachung: 1. Der MPM-Netzplan kann negative Zyklen enthalten. Kürzeste Projektdauer 2. Pufferzeiten aller Vorgänge Die MPM (Metra-Potential-Methode) MPM verwendet ein Vorgangsknotennetz. sobald A begonnen worden ist. In solch einem Fall bietet es sich an. ohne den Projekttermin zu gefährden. da ein Zyklus negativer Länge existiert. n+1 15 / 15 © A. Die minimale Zeilensumme bestimmt den idealen Knoten. eine Entfernungsmatrix D und eine Wegematrix P aufzustellen. Definition: Ein Vorgang i ist genau dann kritisch.h.01 Kürzeste Wege zwischen allen Knoten In der Praxis sind häufig nicht nur kürzeste Wege von einem Knoten zu allen anderen gesucht. so breche das Verfahren ab. B kann begonnen werden./Max. sondern die kürzesten Wege zwischen allen Knoten. Vorgänger des Projektes ist als Knoten im Netzplan eingetragen und die Anordnungsbeziehungen stellen die Pfeile dar.. in einem Verkehrsnetz.

E. Bestimmung maximaler Flüsse nach Ford Fulkerson 1.Ver. Hat ein Pfeil die gleiche Orientierung wie S. dann heißt S flußvergrößernder (r. i = s j∈S ( i ) k∈P ( i ) 0. i = r  Flußbedingung: ∑ ϕ ij − ∑ ϕ ki =  − ω . Inkrementversion des Verfahrens nach Ford Fulkerson Definition Inkrementnetzwerk: Enthält für eine Verbindung zwischen zwei Knoten einen hingerichteten Pfeil. wenn der kostengünstigste Durchfluß von Öl. Starte bei der Senke s und arbeite weiter in Richtung Quelle r. dann wird er Vorwärtspfeil genannt. Wenn die Senke markiert worden ist.k)-Semiweg für den Fluß ϕ. Generell gilt bei solchen Flüssen das Kirchhoffsche Gesetz: Die Summe aller an einem Knoten anliegenden Flüsse ist Null. hat man den maximalen Fluß gefunden. Notation: V Knotenmenge (wie bei Graphen) E Kantenmenge (wie bei Graphen) λij Minimalkapazität von i nach j Maximalkapazität von i nach j κij N = <V. d. B) = ij <i .  ω. Differenz aus der größtmöglichen Flußmenge von A nach B und der kleinstmöglichen Rückflußmenge von B nach A.j> von S.κ> Netzwerk mit Kapazitäten ω Flußstärke zulässiger Fluß von i nach j. i ∈ V \ {r . A> ∑λ .λ. Flüsse in Netzwerken Solche Flüsse treten beispielsweise auf. Jacob . der nicht unbedingt die gleiche Orientierung aller Pfeile haben muß. j > Rückwärtspfeil µ ( A. 1. Er beginnt bei Knoten r (Flußquelle) und endet bei Knoten k. Erhöhe den Fluß genau um die noch ausstehende Maximalkapazität der Senke. j >∈C < B . Dabei ändern sich nur Werte auf dem gefundenen Semiweg <r.0 24. B > ∑κ − ij <i . wenn gilt: λij ≤ ϕ ij ≤ κij ϕ ij S Semiweg in N.07. Markiere alle Knoten von der Quelle ausgehend nach folgender Regel (Quelle markiere mit (+. Wasser o. Teilweg im Netz N. der den noch möglichen Fluß über diesen Weg ausweist und einen rückwärts gerichteten Pfeil. er weißt von r nach s.h.ä. wobei der Balken von FAZi bis FEZi reicht. j > Vorwärtspfeil ∈ij :=  ϕ ij − λij falls < i. 3. s}  Falls ∈ij>0 für alle Pfeile <i. d.h. führe eine Flußvergrößerung durch. Gas.B)-Schnitts:  κ ij − ϕ ij falls < i. andernfalls Rückwärtspfeil. Wenn die Senke nicht mehr zu erhöhen ist.s)-Schnittes in N. Maximalfluß-Minimalschnitt-Theorem: Die Stärke eines maximalen Flusses von r nach s in einem Netzwerk N mit Kapazitäten ist gleich der Kapazität eines minimalen (r. 16 / 16 © A. Puffer GPi werden gestrichelt gezeichnet. d. kritische Vorgänge werden stark ausgezeichnet.s>.h. Kapazität eines (A. durch ein Leitungsnetz gesucht sind.01 Das Gantt-Diagramm Hier werden alle Vorgänge der Zeitplanung als Balken über der Zeitachse dargestellt. j >∈C < A.∞)): 2. der die Differenz zum minimal möglichen Fluß darstellt.

welches keine Umladepunkte zu beachten hat und dessen transportierte Mengen nicht nach oben beschränkt sind. so ist der gefundene Weg maximal.j>. und der „Rückpfeil“ die negativen Kosten angibt. Alle Kosten nichtnegativ 3. Das Transportproblem Als klassisches Transportproblem bezeichnet man jenes. 4.h. Alle Minimalkapazitäten sind gleich 0 Vorgehen: 1. Suche im Netzwerk einen Semiweg von der Quelle zur Senke mit freien Kapazitäten und den dazugehörigen Engpaß 2.Ver. Inkrementnetzwerk Um zu überprüfen. d.0 24. Solch ein Transportproblem kann anhand des Algorithmus von Busaker-Gowen gelöst werden. in dem der „Hinpfeil“ die Kosten angibt. sollte man ein Inkrementnetzwerk anfertigen. Kostenminimale Flüsse nach Busacker/Gowen Im Gegensatz zu maximalen Flüssen muß bei dieser Variante auch der Kostenaspekt berücksichtigt werden. Wenn zudem kein Weg mehr von der Quelle zur Senke existiert. Suche den kostenminimalen (kürzesten) Weg von der Quelle zur Senke anhand des LC AAlgorithmus. in der Waagerechten des Tableaus werden die produzierten Einheiten ai angetragen 17 / 17 © A. es enthält keine Paare entgegengesetzt gerichteter Pfeile. ob man einen kostenminimalen Fluß erhalten hat. bedient man sich des XSchemas. Cij sind demnach die Kosten für den Transport einer ME durch den Pfeil <i. Um eine zulässige Anfangslösung des Transportproblems zu finden. 1. so erhält man das Zuordnungsproblem. 3. 2. Es sieht folgendermaßen aus: mit cij = Kosten für den Transport auf dem Weg i – j xij = transportierte Menge auf dem Weg i – j ai = produzierte Einheiten bj = verbrauchte Einheiten Setzt man im Transportproblem die produzierte Menge gleich der verbrauchten Menge. wenn schon etwas über diesen Weg läuft (sonst wird er nicht eingezeichnet). Erhöhe Kapazität. so ist der aktuelle Weg noch nicht optimal. Reize den Engpaß aus und erhöhe den Durchsatz um die Kapazität des Engpasses 3.h. Jacob . Vorgehen: 1. wenn kein Semiweg auffindbar. d. Sollte es in diesem Netzwerk einen Zyklus negativer Länge geben. Breche ab. Führe eine Flußvergrößerung anhand der minimalen Maximalkapazität aller Flüsse des gefundenen Weges durch. ω+≥0 ist in diesem Fall eine Konstante. N ist antisymmetrisch 2.07. wenn noch Kapazität frei ist (sonst wird er nicht eingezeichnet). 2 so lange. Anfangsbedingungen: 1. Verfahre nach 1. sonst wäre die beste Lösung immer die 0.01 Voraussetzung: Das Netzwerk N ist antisymmetrisch. Suche neuen Semiweg und suche wiederum den Engpaß. bis gewünschte Kapazität übertragen wird.

Der neue ZF-Wert ergibt sich aus: F ( x ) = F ( x ) + δ ' ζ i ' j ' 7. - Nachdem nun eine zulässige Anfangslösung mit einer der Regeln gefunden wurde. d.j) im X-Schema den Wert xij = ai ein. ai < bj: xij = ai. Auf diesem Weg sei δ‘ das größte δ. welches Null wird. 6. Spalte der Anfangslösung ein. Trage diese in die letzte Zeile bzw.h.0 24. In das Tableau trage nun die Kosten für den Transport ein. Jacob . fange in der linken oberen Ecke an und nutze nach Streichen wieder den linken oberen Index. Zeilenminimum-Regel: Wähle die Spalte mit den geringsten Kosten und die Zeile mit dem kleinsten Index. Zu ermitteln sind diese Variablen nach folgender Regel: ui + v j = cij (Diese Werte nur aus den BV’s ermitteln! Sollte es mehr Spalten als Zeilen oder umgekehrt geben. Suche nach einem geschlossenen Zickzackweg. so ist die Lösung optimal. da dort nicht mit reelwertigen Gütermengen gearbeitet werden kann. beginnend bei xi‘j‘=0. ai = bj: Suche eine Vorgehensweise nach Fall 2. d. aus.h.j) im X-Schema den Wert xij = bj ein. Liegt eine Menge von möglichen Alternativen vor. ( ) 3. Auf dem Weg sind nur BV’s zulässig. Berechne neue uj und vj Ganzzahlige und kombinatorische Optimierung Dieser Bereich der Optimierung tritt verhäuft in der Produktion und im Handel ein. 3.j) aus dem Tableau aus. vj auf 0 gesetzt werden. oder 3. so spricht man von kombinatorischer Optimierung. Führe zunächst vj und ui ein. Beginnend mit der Addition werden abwechselnd zu den Elementen des Zickzackweges δ addiert und subtrahiert.01 und an der Senkrechten die verbrauchten Einheiten bj. 5. Suche das kleinste negative unter 2. Sollte die Summe der benötigten Güter nicht gleich der der produzierten Güter sein. Letztendlich werden diese Permutationen bewertet. so kann in den „Mehrvariablen“ der Wert von ui bzw. ermittelte Element. Jetzt nur noch die besagten Regeln zur Ermittlung des Index für einen Verfahrensschritt: Nordwestecken-Regel: Wähle den linken oberen Index. d. welche die Dualvariablen zur Summe aller zu einem Punkt gelieferten und von einem Punkt verschickten Güter darstellt. die Gesamtproduktion wird zu einem Verbraucher transportiert. Trage an der Position (i. Trage an der Position (i. Matrixminimum-Regel: Wähle die Zeile und die Spalte mit den geringsten Kosten. wird neue NBV.) 2. Zwecks Ermittlung einer zulässigen Anfangslösung wähle durch später erwähnte Verfahren ein Anfangspaar (i. Ermittle die Nichtbasisvariablen mit ζ ij = cij − ui + v j und trage sie in das Tableau ein. eliminiere die i-te Zeile für die weiteren Verfahrensschritte und ersetze bj durch den Restbedarf bj . 18 / 18 © A. so daß alle Elemente auf dem Weg positiv oder gleich Null sind. kann man anhand folgender Methode das Problem lösen: Die MODI-Methode (modifizierte Distributionsmethode) Schritte zur Lösung: 1. eine optimale Ordnung zu bestimmen. Das alte NBV nimmt den alten Wert der BV an. Jetzt folgt die Bestimmung der Transportmengenänderung δ‘ des ausgewählten Elementes. Jenes Element. die die Lösung annehmen kann. füge einen fiktiven Verbraucher oder Produzenten mit Kosten 0 und der entsprechenden Differenz an Produkten ein.Ver. Er hat entweder zwei Elemente oder gar keine in jeder Spalte und Zeile. der Gesamtbedarf von einem Verbraucher wird von einem Lieferanten gedeckt. Sind alle Elemente positiv. daß gleiche Anzahl von Zeilen und Spalten herrscht.h. es sind immer vollständige Güter. Jenes Element werde zur neuen BV.07. 1. der bei der neuen BV beginnt und auch endet. eliminiere die j-te Zeile für die weiteren Verfahrensschritte und ersetze ai durch die Restproduktion ai – bj. man legt sie in einer ZF fest und versucht. ai > bj: xij = bj. Sorge mit fiktiven Variablen (=0) dafür. Jetzt unterscheide in folgende drei Fälle: 1. Spaltenminimum-Regel: Wähle die Zeile mit den geringsten Kosten und die Spalte mit dem kleinsten Index. 2. die unter der Anfangslösung ermittelt wurden. 4.ai.

wodurch man neue Teilmengen von M generiert.U. d.Ver.h.gesetzt: xj =1 und . wenn einige (oder alle) Nebenbedingungen des Problems weggelassen oder gelockert werden (z. Welche Elemente existieren in diesem Algorithmus? Jede Variable xj in diesem Verfahren befindet sich in einem Zustand. Sie heißt total unimodular. „wegschneidet“.1 }. es enthält n Vektoren bestehend aus {0.07. Jedem Knoten s ist also ein Teilproblem P(s) des zu lösenden Optimierungsproblems (P) zugeordnet. Anschaulich: 19 / 19 © A. den Möglichkeiten. Bei der Suche nach einer ganzzahligen optimalen Lösung kann diese Menge aus den gesuchten Variablen bestehen. jeder Knoten im Baum bekommt zusätzlich noch eine Zustandsangabe.B. bricht das Verfahren von Gomory ab. Bei Einschränkung des zulässigen Bereichs „verbessert“ sich die untere Schranke. Dies geschieht mit Hilfe eines sog. welche die Menge aller Knoten darstellt. welcher das Minimum dieses Knotens ist.gesperrt: xj =0 und sj = 0 (fixiert) . 0 oder 1 hat. Jacob . Dieser Sachverhalt vereinfacht die nachfolgenden Verfahren ungemein.h. das Standardproblem der linearen Optimierung stellt eine Relaxation der ganzzahligen Optimierungsaufgabe dar). sukzessive Teilmengen vom zulässigen Bereich M zu finden. die Schrankenfunktion b(. in denen keine optimale Lösung des Problems liegt. Jeder dieser Knoten besitzt einen zugehörigen optimalen ZF-Wert F*(s). Eine quadratische ganzzahlige Matrix heißt unimodular. Zudem werden noch Schrankenfunktionen b eingeführt.h. Wenn man diese Relaxation löst und eine ganzzahlige Lösung erhält. mit deren Hilfe man „uninteressante“ Teilmengen von M eliminieren kann. man versucht. so gibt b(s) den Zielfunktionswert für den entsprechenden Verktor x und damit die kleinste untere Schranke an.01 Ganzzahlige Optimierungsprobleme mit total unimodularer Koeffizientenmatrix Begriffliches: Man spricht von einem relaxierten Problem oder einer Relaxation eines Optimierungsproblems. dann sind alle Basislösungen ganzzahlig.h. aber nicht ganzen Lösung führte. dass sie die Ecke. welche zu einer reelwertigen.0 24. Das Prinzip: Diese Methode macht sich das Prinzip der impliziten Enumeration zunutze. d. Eine darauf gefundene Lösung. Andernfalls fügt man eine neue Nebenbedingung derart ein.frei: xj =1 oder 0 und sj = -1 d. bringt u. Demnach lässt sich folgendes schließen: Sind in einem linearen Optimierungsproblem die Matrix A total unimodular und der Vektor b ganzzahlig. B sei der Zielfunktionswert der bisher besten gefundenen Lösung. Verfahren von Gomory zur Lösung eines rein ganzzahligen Optimierungsproblems Als Grundlage dieses Verfahrens dient ein rein-ganzzahliges Optimierungsproblem. III. der durch sj beschrieben wird: sj = 1 (fixiert) . wenn die Determinante der Matrix den Wert 1 oder –1 annimmt. „Bound“ weist auf die Verwendung unterer und oberer Schranken für den ZF-Wert hin. man veranschaulicht sich den Sachverhalt anhand einer Zeichnung.). wenn jede quadratische Teilmatrix einen Determinantenwert von –1. dessen Knoten gewissen Teilmengen von M entsprechen. Die Branch-and-Bound-Methode zur Lösung kombinatorischer Probleme Was hat man?: Anfangs liegt ein binäres Optimierungsproblem vor. Suchbaumes. eines Wurzelbaumes. b(s) ist eine untere Schranke für den optimalen ZF-Wert von P(s) II. Vom Namen der Methode bezieht sich „Branch“ auf das Verzweigen des Suchbaumes. Sind alle Variablen für den Knoten s fixiert. d.h. d. falls man keine andere Obergrenze ausmachen kann.) verhält sich wie die Funktion F*(. die den folgenden drei Bedingungen zu genüge kommt: I. Am besten. eine ganzzahlige Lösung. Anfangs gilt B:=∞. 1. welche sich an der „neuen“ Ecke ansiedeln wird.

sobald keine Knoten mehr aktiv sind.-1) entspricht (alle Variablen sind frei). sind ganzzahlig. um ein einfacheres Problem zu erhalten (Relaxation) oder bei einfachen Problemen eine Anfangslösung mit dem Simplexverfahren aufstellen. Dann kann das ganzzahlige Problem durch die Lösung des relaxierten Problems auf Π gelöst werden. so kann der Vorgängerknoten auch eliminiert werden. Es ist sj=-1 für mindesten ein j. so muß entschieden werden.0 24. kleine obere Schranken. LLB-Strategie (least lower bound): Es wird derjenige Knoten mit dem kleinsten Wert b(s) gewählt. also ist x=s eindeutig festgelegt. 1.. • conv(X) bezeichnet die konvexe Hülle einer Menge X. in denen keine optimale Lösung von P liegt und folglich ausgesondert werden können.Ver. und ein aktiver Knoten ist (d. In den Fällen 1 und 2a spricht man von einem ausgeloteten Problem. Eigenschaften: T • Eine Ungleichung α x≤β heißt gültig für P. Allgemein gilt folgende Beziehung für den Bereich M eines ganzzahligen Problems: M⊆conv(M)⊆P. 2. Hat P die Dim d≤q. wenn S≠0 und S≠P ist. mindestens eine Variable ist frei.. Eine Facette ist die maximale Seitenfläche T bzgl.01 Versuche sukzessive Teilmengen von M durch binäre Unterscheidung zu finden. LIFO-Strategie (last in first out): Die Knoten werden als Keller gespeichert. in 2b von einem verzweigten Problem. Das Vorgehen ist wiefolgt: Das Verfahren: T Zu Beginn des Verfahrens besteht der Suchbaum nur aus der Wurzel. Hat der Vorgängerknoten nur diesen einen Nachfolger. die dem Vektor s=(-1. welcher aktive Knoten im nächsten Schritt betrachtet wird: FIFO-Strategie (first in first out): Die Knoten werden als Schlange gespeichert. was zuletzt reinkommt. noch nicht untersucht). also nicht überflüssig ist. Setze B:=F(x) als neue beste optimale Lösung. so stellt conv(M) ein konvexes Polytop dar.07. Jacob . Folgende Fälle können dabei eintreten: 1. so hat jede Facette die Dim d-1. wenn sie mit P mindestens einen Punkt gemeinsam hat. wenn sie für alle x ∈ P erfüllt ist. • S heißt echte Seite von P. wird als erstes wieder herausgenommen.h. Dann erzeugt man Nachfolger. Branch-and-Cut-Verfahren Idee: Finde einen Bereich Π. 2b. die die Zielfunktion auf conv(M) annehmen kann. am Ende wird angefügt und am Kopf entnommen. die durch die Auslotungsregeln abgeschnitten werden können. Effizienz: Die Effizienz dieses Verfahrens wird stark von der frühzeitigen Eliminierung von Knoten ab. da er nur über zulässige. indem man eine oder mehrere freie Variablen fixiert. nicht jedoch über optimale Lösungen verfügt. der den zulässigen Bereich des relaxierten Problems so einschränkt. Zum Aussondern oder Auffinden der Lösungen dienen die Regeln I. d. Alle Variablen des Knotens sind fixiert (sj={0. b(s) < B: Folgende 2 Fälle werden nochmals unterschieden: 2a. d. In jedem Schritt wir ein aktiver Knoten untersucht. Das Verfahren bricht ab.h. Alle Werte. Eine gute Anfangsschranke ist also von sehr großem Nutzen. Bestimmung unterer Schranken am Anfang des Problems: Eine oder mehrere NB’s des Problems werden gelockert oder entfernt.. d. Mit dieser Hilfestellung lässt sich folgendes Problem G vereinfacht durch G’ darstellen: 20 / 20 © A..h. Damit dies passiert. Ist zudem der Wert des Vorgängers ebenso groß wie der von s. dass zum einen der zulässige Bereich M des ganzzahligen Problems vollständig in Π enthalten ist und zum anderen sämtliche (ausreichend viele) Ecken von Π ganzzahlige Lösungen repräsentieren. benötigt man große untere bzw. Erhält man am Ende eines Verfahrensschrittes mehr als ein Element als aktiven Knoten. Wenn M endlich ist. Mengeninklusion. dessen Ecken eine Teilmenge von M bilden. II und III. Seite ist sie durch S={x∈P| α x=β}. • Eine Ungleichung heißt stützend. so können alle von s verschiedenen Knoten eliminiert werden.1}). b(s) ≥ B: Knoten aus dem Suchbaum entfernen.h. Diese kann mit einem heuristischen Verfahren näherungsweise bestimmt werden.

d . sondern Seiten oder Facetten) durchführen.  Min.0 24. x ∈ conv( M ) 21 / 21 © A. Ax ≤ b q  x ∈ Z+  ⇒  Min. c T x  u.Ver. dabei scharfe Schnitte (d.N .d .01 Verfahren: Konstruktion von Polyedern Qi mit P⊃Qi⊃Π. falls optimale Ecke im Qi ganzzahlig: STOP.h. falls keine Qi mehr erzeugt werden können: Branch&Bound. cT x  u. Jacob . 1.N . es werden nicht nur Ecken wie bei Gomory weggeschnitten.07.

linear konvex Jetzt ist nur noch die zulässige Richtung aus Vorr. Dies kann in der Realität z. u ) ≤ L( x.. dass ein lokales Minimum auch globales Minimum ist. dass bei der Optimierung in globale bzw. d.h. längs keiner zulässigen Richtung in einer Umgebung von x kann der ZF-Wert verkleinert werden (stationärer Punkt).01 Nichtlineare Optimierung In diesem Kapitel handelt es sich um Optimierungsprobleme.N . also stumpfer Winkel zwischen s und g(x).h. er zeigt in die Richtung des stärksten Anstieges von F. 2 zu überprüfen. es existiert zumindest eine ∈Umgebung >0 um den Punkt x**. wenn die Endprodukten nichtlinear von den Ausgangsproduktmengen abhängen.h.d. Dies kann man mit folgenden Verfahren nachweisen: 1. Positiv definiete Hessematrix: Alle Determinanten der Hessematrix sind positiv 2. Definitionen: • globaler Minimalpunkt x*: F(x*)≤F(x) für alle x∈M • globales Minimum: F*:=minx∈M F(x) • lokaler Minimalpunkt : F(x**)≤F(x) für alle x∈M ∩ U∈(x**) ..h. 1. f i ( x ) ≤ 0  F . 2.07. s g(x)≥0 für alle s∈Z(x).d . • Lokales Minimum: F(x**) • Zulässige Richtung: ein Vektor von x∈M heißt zulässige Richtung.h. für die er ein Minimalpunkt darstellt. wenn folgende Bedingung erfüllt ist: L( x.0 24. ii. d. absolute Minima (Maxima) unterschieden werden muß. Eigenwerte sind ≥0 3. Das Nullsetzen der partiellen Ableitungen der Lagrange-Funktion liefert die notwendige Bedingung für die Extremwerte. wenn man sich δ-weit in diese Richtung bewegen kann. d. der zulässige Bereich darf nicht verlassen werden. Grundsätzlich versucht man. durch Materialbilanzgleichungen bei technischen Prozessen auftreten. f i konvex  Zunächst gilt es zu beweisen. 3. Karush-Kuhn-Tucker-Bedingung Min. Hier kann man sich sukzessive in Richtung abnehmender ZF-Wert im zulässigen Bereich durcharbeiten. • Gradient von F g(x**) in einem Punkt x**: Partielle Ableitung von F nach allen xi in einem Vektor. g(x) zeigt in Richtung des steilsten T Anstieges. Als Lagrange-Multiplikator dienen hier ui.. dass das Optimierungsproblem überhaupt konvex ist. Dann kann man sich längs eines solchen Weges auf die Suche nach einer optimalen Lösung machen. Lagrange-Funktion und Karush-Kuhn-Tucker-Bedingung Um Optimierungsprobleme mit NBs besser angehen zu können. Es lässt sich grundsätzlich in zwei verschiedene Arten der Optimierungsaufgaben unterscheiden: n n Restringierte auf einer echten Teilmenge des R und Unrestringierte auf dem gesamten R . deren Zielfunktion und Nebenbedingungen nicht mehr linearen Funktionen entsprechen. ohne M zu verlassen. Abnahme des ZF-Wertes gleichwertig s g(x)<0. Dabei müssen die ZF und die NBs auf Konvexität überprüft werden. macht man sich die LagrangeFunktion zunutze.Ver. u ) mit u ≥ 0 22 / 22 © A. Und aus der Konvexität folgt. Spezialfall der nicht-linearen Optimierung: konvexe Optimierungsprobleme Wiederum ein Art der Optimierungsprobleme bilden die konvexen Optimierungsprobleme mit konvexer ZF und konvexen NBs. u ) ≤ L( x. Ist x innerer Punkt von M. einen Sattelpunkt der Lagrange-Funktion L zu finden. s muß in Richtung abnehmender ZF-Wert sein. F ( x)   (i = 1. so ist natürlich jede Richtung zulässig.B. Ein Sattelpunkt ist gefunden. s muß eine zulässige Richtung sein. Eine besondere Schwierigkeit besteht darin. bis man das Minimum erreicht hat. bei welchen globales und lokales Minimum zusammenfallen. Optimalitätsbedingungen: T i. m) Das konvexe Optimierungsproblem sieht so aus: u. D.. Nordwest-Determinanten ≥0 4. Jacob . Dazu müssen folgende Voraussetzungen erfüllt sein: 1.

Ver.fm stetig differenzierbar und konvex. Somit ergibt sich: Ist die Slaterbedingung erfüllt und sind die Funktionen F. u ) = 0 u Lu ( x. So erhält man bei diesen Verfahren nur ein Näherungslösung. bei unrestringierten Problemen g(x*)=0 erfüllt. dass der zulässige Bereich innere Punkte besitzt. so dass für alle nichtlinearen fi die Bedingung fi(x’)<0 erfüllt ist. u ≤ 0 δu Lx ( x. welches die T Optimalitätsbedingung s g(g*)≥0 bzw.07. u ≥ 0 δx δL Lu ( x. Somit impliziert die Slaterbedingung. Anders und anschaulicher mit der Lagrange-Funktion formuliert: δL x. kann man sich mit dem Newton-Verfahren durch Iterationsschritte der optimalen Lösung annähern. u ) = x.. um das Problem überhaupt lösen zu können. so ist x genau dann optimale Lösung für das Optimierungsproblem. u ) = 0 x≥0 u≥0 Um die globale Minimalstelle x* einer zweimal stetig differenzierbaren. streng konvexen Funktion F zu ermitteln. u ) = ( ) ( ) x Lx ( x . wenn die Lagrange-Funktion einen Sattelpunkt mit u ≥ 0 besitzt.. Die meisten Verfahren konvergieren gegen ein x*. Slaterbedingung: Es gebe ein x’. Allerdings brechen diese Verfahren nicht nach einer endlichen Zahl von Schritten mit einer optimalen Lösung ab. Mit folgenden Verfahren werden Näherungslösungen angeboten: 23 / 23 © A. wenn die folgenden Karush-Kuhn-Tucker-Bedingungen gelten: bzw..01 Als Voraussetzung.0 24.. 1. Jacob . f1. benötigen wir die Konvexität des Optimierungsproblems sowie die Slaterbedingung. Es ergibt sich eine Iterationsvorschrift der folgenden Art: T T xυ +1 := x υ − F ' ( xυ ) F ' ' ( xυ ) Lösungsverfahren für unrestringierte Optimierungsprobleme Ähnlich wie beim Simplexverfahren startet ein Lösungsverfahren der allgemeinen nichtlinearen 0 Optimierung mit einer Anfangsnäherungslösung x und konstruiert darauf basierend eine Folge von Näherungslösungen.

Dynamische & stochastische Modelle und Methoden Probleme der dynamischen Art ergeben sich in der Wirtschaft durchaus vielfach: Man denke an ein Lager.rj u.01 Setzt man statt sνTg(xν)<0 die Abstiegsrichtung auf sν := -gν. so spricht man vom klassischen Gradientenverfahren. Das Ergebnis muß sich mit höherem ν verkleinern. Jacob . 1. Beispiel Transportproblem: Folgende Faktoren spielen im weiteren in unser Problem mit hinein: uj : Zu beginn der Periode j gelieferte Menge rj : Nachfrage in Periode j xj : Lagerbestand unmittelbar vor Belieferung Lagerbilanzgleichung: xj+1 = xj + uj . Da viele Vorgänge in dynamischen Prozessen stark mit dem Zufall behaftet sind. xj ≥ 0 Da eine Minimierung der Lagerkosten angestrebt wird und Material im Lager kosten verursacht. Hierzu als Beispiel das Rucksackproblem. so fallen folgende Bestellkosten abhängig von der bestellten Menge an: B(uj) := K + cuj (K = fixer Kostenanteil und c = Kosten pro Stück) Somit sind die gesamten während dem Planungszeitraum anfallenden Kosten: ∑ [Kδ (u n j =1 j ) + cu j + hx j +1 mit δ = 1 bei Bestellung und δ = 0 bei keiner Bestellung. in dem die künstliche Dynamisierung darin besteht. dass die Nachfrage befriedigt wird und die anfallenden Lagerkosten über einen längeren Planungszeitraum hinweg minimal werden. welcher Gegenstand als nächstes in den Rucksack kommt. was nicht notwendigerweise der Fall ist. muß gelten: x1 = xn+1 = 0 Falls eine Bestellung eintritt. 24 / 24 © A. indem man die gewonnenen Werte in die ZFFunktion einsetzt und die Ergebnisse miteinander vergleicht. Wesentlich für die Optimierung ist jedoch nur die Einteilbarkeit in einzelne Stufen.d.Ver. auch künstliche Dynamisierung genannt. Den Abstand zu einem anderen Punkt (evtl.07. dass in jedem Optimierungsschritt darüber entschieden werden muß.N. Die Zulässigkeit der Schrittweite kann man überprüfen. werden zur Beschreibung solcher Phänomene oft stochastische Größen verwendet. ] Somit ergibt sich folgendes Lagerhaltungsproblem: Beispiel Rucksackproblem: In obigem Problem waren die „Stufen“ eines dynamischen Optimierungsproblems in Zeitabschnitte gegliedert. wobei wir etwa die Bestellmenge so festlegen wollen.0 24. dessen Bestand sich durch Zu. ist ein optimaler Punkt gegeben) kann man mit Hilfe des euklidischen Abstandes berechnen.und Abgänge im Laufe der Zeit ändert.

auch Maximierung z. Pj sei das Problem. Xj+1 beinhaltet als Zustandsbereich die möglichen Zustände von einer Periode j. Eine Folge von Entscheidungen heißt Politik oder Steuerung. Für j=(1|1|n) wird vj* auch Wertfunktion genannt.B. Somit gelangt man zu v1*(x1*). welches es zu lösen gilt.j-1 ist. Uj(xj) ist der Steuerbereich. uj sind Entscheidungs... die den Beginn des Systems zu Periode j beschreibt. Man sieht leicht. die die Kosten von einer Stufe zu einer anderen erfasst. also den minimalen Kosten des Optimierungsproblems P1(x1). sind die minimalen Kosten von der zu Periodenanfang verfügbaren Menge. die den Zustandsbereich beschreibt.. Netzwerk: f(x. Durch eine gefällt Entscheidung verändert sich der Zustand des Systems. unter deren NB die Kosten zu minimieren sind.n unabhängig von der Entscheidung in den Perioden 1.. un*) eine Entscheidung für die Perioden j.B. die bei Realisierung von xj entstehen...Ver. Suche nach möglichen Steuermöglichkeiten. n-1. die die entstandenen Kosten beschreibt und somit minimiert werden muß (oder den Gewinn beschreibt und maximiert werden muß). Es ist auch ersichtlich. bei bekanntem vj+1* die Funktion vj* und damit jeweils für eine Vorperiode die Wertfunktion zu bestimmen. d. Somit ist der Anfangszustand einer Periode beschrieben durch eine Funktion der Vorgängerperiode.01 Problemstellung der allgemeinen dynamischen Optimierung Wir können aus obigen Beispielen ableiten: xj ist eine Zustandsvariable. welche im Problem die Auswahlmöglichkeit beinhalten (z.. des Gewinns unter Einhaltung einer bestimmten Anlageform sind denkbar. 2. Zu Beginn gilt x1 = xa. in welches das Problem unterteilt werden kann (z. Wie aus obiger Gleichung ersichtlich. beginnend „am Ende“ mit vn+1*(xn+1) := 0. ..uj) ist die Kostenfunktion.h. u j ) + v * j +1 f j ( x j . Suche nach einer Übergangsfunktion.uj) ist die Funktion... also gleich dem Anfangszustand. u j ) u j ∈U j ( x j ) { [ ]} Mit dieser Gleichung wird eine Beziehung zwischen zwei aufeinander folgenden Wertfunktionen vj* und vj+1* hergestellt. erreiche die nächste Stufe). zum Anfang des Problems. zj*(xj) ist die optimale Einsatzmenge..u)=xj+1=uj. Erstelle Bellmansche Funktionalgleichung Bellmansche Funktionalgleichung v * j ( x j ) = min g j ( x j . 3. 4. Das Problem muß nicht notwendiger Weise ein Minimierungsproblem sein. Wichtig beim Aufstellen eines dynamischen oder dynamisierten Optimierungsproblems: 1. in einem Netzwerk alle Knoten auf einer Höhe). . xj+1 = fj(xj.07. falls der Ausgangszustand des Problems fixiert ist. Suche zunächst nach Stufen. dass diese Verfahren Ähnlichkeit zur Suche nach optimalen Wegen in Netzwerken hat. in dem alle möglichen Entscheidungen uj der Periode j liegen vj*(xj) seien hier die minimalen Kosten. Jacob . Netzwerk: Welcher Weg wird von einem Knoten ausgehend gewählt). um zu den minimalen Kosten zu gelangen. - - Bellmansches Optimalitätsprinzip Dieses Prinzip beruht auf der Tatsache.0 uj : cj : aj : A: xj : Gegenstand Wert des Gegenstandes Gewicht des Gegenstandes Nicht überschreitbares Gesamtgewicht des Rucksacks das für Ausrüstungsgegenstände noch verfügbare Restgewicht im Rucksack 24. dass wenn man in der ersten Periode nach dem Planungszeitraum von 0 Kosten ausgeht.B.. der Entscheidung in dieser Periode und der in der nachfolgenden Periode minimalen Kosten abhängig. Suche nach einer Kostenfunktion. Bellmansche Funktionalgleichungsmethode Mit dieser Methode gelangt man durch sukzessive Auswertung der Bellmanschen Funktionalgleichung von j=n. welche die Übergänge von einer Stufe in eine andere beschreibt (z. d.. da man hier 25 / 25 © A. allerdings rückwärts. die es erlaubt. 1. gj(xj.B..oder Steuervariablen. dass bei gegebener optimaler Politik (u1*.h.

Für diesen Punkt braucht man nicht mehr alle verschiedenen Einsatzmengen durchzurechnen. falls zwei Einheiten zur Verfügung stehen. bis man bei j = 1 angekommen ist. so hat man den optimalen Inhalt des Rucksacks gefunden. Umkehrung des Rechenverlaufs: Das Bellmansche Verfahren kann in dem Fall zunächst mit der Vorwärtsrechnung eingesetzt werden. dass für jeden Gegenstand geschaut wird. Dies macht man bis j=1. Entscheidung über die Anlagealternative durch und ordne die entsprechenden Beträge aus der Rückwärtsrechnung den einzelnen Entscheidungen zu. da man in der ersten Periode noch alles zur Verfügung hat.h. und sich dann sukzessive zu den Kosten der Vorperioden durcharbeitet. bis keine Möglichkeit zum Investieren mehr gegeben ist. Dies erfolgt mit cj + v*j+1(xj-aj) für xj ≥ aj. da dies hinter unserem Zeithorizont liegt (vj+1*(xn+1) = 0). ob ein bestimmter Gegenstand in den Rucksack eingepackte werden soll oder nicht. Nun folgt die Vorwärtsrechnung: Suche für x1 den optimalen Betrag. Dieser Wert wird dann mit v*j+1(xj+1) verglichen. falls einpacken oder 0. Vorwärtsrechnung: Setze x1* = xa.h. verwendet man folgende speziell auf dieses Problem zugeschnittene Form: v * j ( x j ) = max c j u j + v * j +1 (x j − a j u j ) u j ∈U j ( x j ) { } mit cj = Wert des Gegenstandes uj = 1. man beginnt bei n+1 und geht davon aus.07. da in n+1 schon alles angelegt ist. Dies macht man. um die Frage. dass man einen 1. Anwendungsformen Die Bellmansche Funktionalgleichungsmethode kann auf viele Probleme der dynamischen Optimierung angewendet werden. Nun geht man auf j = n-1 und rechnet wiederum alle möglichen Gewinne für alle eingesetzten Faktoren aus. bis die 0 erreicht ist. also gleich dem anfangs verfügbaren Kapital. Gehe nun jede 1. Dies macht man für alle Alternativen. so wird zj*(xj) = 2 sein. Realisiere. Ziehe dabei von x1 die optimal verwendete Menge ab. wie schon vorangegangen erwähnt. ab wann im Rucksack genug Platz ist und ab wann ein weiterer vorangegangener Gegenstand auch noch hinzugefügt werden kann. Zusammenfassend: Es wird zunächst eine Rückwärtsrechnung durchgeführt. zu investieren. Für diese letzte Alternative ist natürlich nur x1 = n zu überprüfen. d. falls nicht einpacken aj = Gewicht des Gegenstandes xj = Gewicht des Rucksacks am Anfang von j Das Prinzip beruht darauf. Verfahre.0 nicht mehr vor hat. Jacob . wenn vj* = 4 für xj = 2 das Maximum ist. 24.01 Beispiel: Rückwärtsrechnung: Man weiß am Anfang des Optimierungsverfahrens. d. Nun kann man mit der Bellmanschen Funktionalgleichung den möglichen Gewinn der letzten Periode (vn) in Abhängigkeit von der eingesetzten Menge (xn) ausrechnen. 1. dass in n+1 nichts optimiert werden muß. Binäres Rucksackproblem: Hier geht es. Der größere Wert wird in v*j(xj) übernommen. Suche für z2 = (x1 – u1) den optimalen Betrag. Jener wird dann durch die optimale Investitionsmenge zj*(xj) beschrieben. Im folgenden seien weitere wichtige Anwendungen und die damit verbundenen Änderungen an der Gleichung aufgelistet: 1. Ist man letztlich bei v1(x1) angelangt. Geldbetrag so anlegen möchte. der zu investieren ist. dass der gesamte Betrag möglichst gewinnbringend auf eine Menge von unterschiedlichen Anlagealternativen verteilt werden soll. Nun geht man rückwärts jede Entscheidung über eine Anlageform j durch und ermittelt mit Hilfe der Bellmanschen Funktionalgleichung den optimalen Gewinn vj in Abhängigkeit von der Ausgangssituation xj am Anfang der Periode j. 2. Somit ist vj+1*(xn+1) = 0 als Ausgangsbasis gesichert. Um dies mit der Bellmanschen Funktionalgleichungsmethode zu lösen. wenn in Periode j der Anfangszustand xj durch den Endzustand xj+1 und der Entscheidung 26 / 26 © A.Ver. da man anfangs noch den vollen Investitionsbetrag zur Verfügung hat.

Es sind genau die Kosten. Durchschnittlich im Lager befinden sich während dieser Zeit S/2.Ver. Optimaler Bestellpunkt ist gleich 0. also etwa xj = fj (xj+1. Die entsprechenden Summanden der ZF angepasst ergibt sich: v j ( x j +1 ) = * u j ∈U j ( x j +1) min {g ( x j j +1 .und Vertriebsablauf.und Zeiteinheit h Q* 2K * = Optimale Periodenlänge: T = r rh * rK hQ * = 2rhK + rc Minimale Kosten: C = * + rc + 2 Q Optimale Bestellmenge: Q* = Nehmen wir an.07. 1. und man erhält: Q* = 2rK h S* = 2rK h p h+ p T* = Q* = r 2K rh h+ p p C * = 2rhK Außerdem noch die maximale Fehlmenge: Q − S * = −s* = 27 / 27 2rK P h h+ p © A. Folgende Größen lassen sich aus der einmalige Ableitung gleich null gesetzt berechnen: 2rK mit h = Lagerkosten pro Mengen. S/r ist die Zeitspanne. dass viele Größen wie die Lieferzeit oder der Verbrauch nicht genau vorhersagbar sind und somit als stochastische Größen angesehen werden müssen. wenn nichts mehr im Lager ist und trotzdem Nachfrage vorhanden ist. S ) = rK hS 2 p(Q 2 − S 2 ) + rc + + 2Q 2Q Q h+ p p p + rc h+ p * Jetzt ist nur noch partiell nach Q und S abzuleiten. auf den das Lager bei der Lieferung wieder aufgefüllt wird Fehlmenge: tritt auf. Die Kosten betragen demnach: p (Q − S ) (Q − S ) (Q − S ) 2 =p 2 2r r Somit ergeben sich die Kosten pro Zeiteinheit (also mal 1/T): C (Q.uj) gilt. Somit ergeben sich die Kosten zu: SS S2 h =h 2 r 2r Diese Modell beinhaltet noch keine Fehlmengenkosten p. in der das Lager nichtnegativ ist. Folgende Begriffe sind im Zuge der Problematik zu definieren: Bestellpunkt: Derjenige Lagerbestand. Lagerhaltung Ein Lager dient grundsätzlich der Pufferung von Gütern an verschiedenen Stellen im Produktions. Mit Fehlmengenkosten zu rechnen kann durchaus günstiger sein als keine Fehlmengen in kauf zu nehmen.01 uj eindeutig gegeben ist. bei dessen Unterschreitung bestellt wird Bestellgrenze oder -niveau: Lagerbestand. Zentrale Frage der Lagerhaltung ist. in der Fehlmengen auftreten können und (Q-S)/2 die durchschnittlichen Fehlmengen. wann und wie viel bestellt werden soll. Dann ist (Q-S)/r die Zeitspanne.0 24. Jacob . die entstehen. also Kosten produziert. Mit T als Periodenlänge und Q als Bestellmenge ergibt sich folgende Beziehung: T=Q/r.u j ) + v * j −1 [f j ( x j +1 . aber Nachfrage vorhanden EOQ-Modell (economic order quantity Diese Modell ist eines der einfachsten Lagerhaltungsmodellen und geht von einer konstanten Abgangsrate r aus. Schwierig ist hierbei. wenn Lager nicht lieferbereit. S sei das voll aufgefüllte Lage am Anfang. u j ) ]} In der anschließenden Rückwärtsrechnung bestimmt man dann eine optimale Politik und die zugehörige (optimale) Zustandsfolge.

Die minimalen Kosten erhält man aufgrund der Bellmanschen Funktional- ˆ gleichung: C j ( x j +1 ) * = 0 ≤ u j ≤ x j +1 + r j ˆ ˆ* min {Kδ (u j ) + hx j +1 + C *−1 ( x j +1 − u j + r j )} mit C 0 ( x1 ) := 0 j Wagner und Whitin haben einen Algorithmus zur Bestimmung der optimalen Bestellpolitik entwickelt. usw.07. sondern diese z. Nun braucht man sich nur noch in der Rückwärtsrechnung von der letzten Spalte zur ersten durcharbeiten und den minimalen Betrag der Spalte zu ermitteln. da I0 =0) 2. wenn s* erreicht ist.B.Ver.0 24. welche Kosten als konstant betrachtet werden können und somit rausfallen. Suche die jeweils geringsten Kosten pro Schritt und addiere sie zu den Gesamtkosten.01 Jetzt kommt noch die Annahme hinzu. Die macht man. 4. Generell ist es von Vorteil. da sie bei 0 Anfangs. saisonal bedingt schwanken. so muß λ früher bestellt werden. da jene jetzt ebenfalls nicht mehr als konstant angesehen werden können. Deterministisches dynamisches Modell Zu Begin der dynamischen Optimierung schon erwähntes Lagerhaltungsmodell sei an dieser Stelle nochmals aufgegriffen. dass wir keine konstanten bestellfixen sowie variablen Kosten haben. λ<T*. sollte man tabellarisch vorgehen und sukzessive alle Bestellmöglichkeiten durchrechnen: Wenn ich in der 1. der wesentlich weniger Rechenaufwand erfordert als die Auswertung obiger Funktionalgleichung. Gehe für jede Periode alle Möglichkeiten durch und ermittle deren Kosten: Bestellung in dieser Periode für diese Periode Bestellung in der letzten Periode für diese Periode und Lagerung Bestellung in der vorletzten Periode für diese Periode und Lagerung . Sonst bestimme lT*≤λ≤(l+1)T* und setze in s*+λr-lQ* ein. bis man bei n angekommen ist. in welcher Periode aufgrund der Vorwärtsrechnung wie viel bestellt wird und ermittle so optimalen Bestellplan. Somit werden auch die variablen Kosten wieder interessant für die Optimierung. und welche bei der Optimierung berücksichtigt werden müssen. 3. Um es optisch anschaulicher zu machen..Periode für alle Perioden bestelle. Setze am Anfang I*1 gleich den Bestellfixen Kosten und k*1=1 (logisch. d.und Endbestand und konstantem Verbrauch zwischen Anfang und Ende fix sind und somit nicht zu optimieren. wenn ich in der ersten Periode nur für n-1 Perioden bestelle. wenn man sich zu Anfang des Optimierungsproblems klar macht. Schaue in der Rückwärtsrechnung. 28 / 28 © A. 1. Jacob . Der optimale Bestellpunkt ist s*+λr für λr<Q*. Soll also die Bestellung eintreffen. Betrachten wir abschließend den Fall. Somit erhält man die optimale Bestellzeitpunkt zu nT*-λ mit n = Periode.. Das Verfahren ist relativ einfach: 1.h. Die variablen Bestellkosten sind in diesem Modell zu vernachlässigen. dass wir eine Lieferzeit λ>0 einkalkulieren müssen.

also ankommende Kunden pro Zeiteinheit µ Bedienrate. Die Wahrscheinlichkeit. dass ein Kunde in einem beliebigen Zeitintervall der Länge ∆t abgefertigt wird. Die Anzahl der in disjunkten Zeitintervallen auftretenden Ereignisse „Eintreffen eines Kunden“ seien unabhängige Zufallsgrößen.oder Auslastungsintensität ρ := λ/µ. sei o(∆t). für die im Gleichgewichtszustand ρ<1 gilt (d. Das gleich gelte für die Ereignisse „Abfertigung eines Kunden“. nach dem der Kunde das Wartesystem wieder verlässt V(t) ist die virtuelle Wartezeit. 29 / 29 © A. um alle zum Zeitpunkt t wartenden Kunden abzuarbeiten. Folgende drei Merkmale werden zur Beschreibung des Systems verwendet: 1. Ankunftsrate ist kleiner als die Bedienrate). Die Wahrscheinlichkeit. also abgefertigte Kunden pro Zeiteinheit ρ := λ/µ Auslastungsintensität. Zunächst ein paar Begriffe: Tn sei die Ankunftszeit des n-ten Kunden im Wartesystem Zn := Tn-Tn-1 sie die Zwischenankunftszeit des n-ten Kunden Sn sei die Bedienungs. sei o(∆t).0 24. Lediglich die Ausgestaltung kann unterschiedliche Formen annehmen. Außerdem werden im weiteren die Zwischenankunftszeiten und die Bedienungszeit nicht nur statisch sein. der Abfertigungsmodus (einzeln oder schubweise) und die Auswahlordnung (im weiteren nur first come first serve betrachtet). Aus den oben eingeführten Kennzahlen ergibt sich die Verkehrs. 2. dass mehr als ein Kunde in einem solchen Intervall abgefertigt werden.oder Servicezeit des n-ten Kunden q Wn sei die aktuelle Wartezeit des n-ten Kunden in der Schlange q W n := W n + Sn ist demnach die Gesamtzeit des n-ten Kunden im Wartesystem q Dn := Tn + W n + Sn ist der Zeitpunkt. Zeit.01 Warteschlangen Die Grundlegende Systematik ist bei allen betrachteten Wartenschlangenproblemen die obige. 1. Die Wahrscheinlichkeit. Das Wartesystem M|M|1 M|M|1 steht für: Exponentialverteilung in den Zwischenankunftszeit Z | Exponentialverteilung in der Bedienungszeit S | einen Bedienschalter. dass ein Kunde in einem beliebigen Zeitintervall der Länge ∆t eintrifft. sei µ∆t+o(∆t) mit der Bedienungsrate µ>0. die Anzahl der Bedienschalter. L(t) ist die Anzahl der zum Zeitpunkt t im Wartesystem befindlichen Kunden λ Ankunftsrate.07. dass mehr als ein Kunde in einem solchen Intervall eintrifft. also ankommende pro abgefertigte Kunden Weitere Charakteristika von Warteschlangen sind die Größe des Warteraums. Jacob . die benötigt würde.Ver. sei λ∆t+o(∆t) mit der Ankunftsrate λ. 3. Die Wahrscheinlichkeit.h. sondern auch stochastischen Prozessen unterliegen.

… Kunden im System ausrechnen soll und als Basis π0 gegeben hat. q 2 2 Man kommt dann zu: L = δ / (1-δ) = λ / µ(µ-λ) Ein weiteres wichtiges Instrument ist die Littles Formel L = λW bzw. bei dem sich die Wahrscheinlichkeit. die auf ihre Abfertigung warten? πj = (1-δ)δ πj+1 =πj δ j j+1 Diese Beziehung ist genau dann zulässig. mit zunehmender Länge der Warteschlange abnimmt.Ver. Wartezeit bin zu Abarbeitung von W = L / λ kommt. dass sich ein Kunde anstellt. d. j j-1 L = ∑j (1-δ)δ = (1-δ)δ ∑j δ = (1-δ)δ 1/(1-δ) = δ / (1-δ) = λ / (µ-λ) 2 Das ganze ist abgeleitet aus einer Reihenentwicklung. wenn man die Wahrscheinlichkeit von 0. lieber wieder zu gehen (λj =λaj). Die obige Abbildung zeigt den Fall von einem Wartesystem. Es kommt jetzt noch ein Größe hinzu.0 24. Sehr nützliche. Für die Bedienungsrate wird sich kaum etwas ändern. Diesen Erwartungswert kann man auch für die Anzahl der Kunden in der Warteschlange entwickeln. da die vorhandene Schlange auch noch abzuarbeiten ist. Wartesystem mit veränderbarem Warteverhalten Das Übergangsverhalten solcher Wartesystem im Gleichgewicht kann in Digraphen wie folgendem festgehalten werden: q q In den Knoten steht der Zustand des Wartesystems. Somit ist bis zu dieser Rate und ab der Rate getrennt zu sehen. dass sich ein ungeduldiger Kunde j bei einer gewissen Länge der Warteschlange nur zu einer gewissen Wahrscheinlichkeit aj anstellt. die man als „Erfassungsgrad der Kunden“ bezeichnen kann. wenn ein Kunde wieder geht. dass man zu q q einer Wartezeit in der Schlange von W = L / λ bzw. π0 ist genau die Wahrscheinlichkeit. dass kein Kunde im System ist. Statt Z (Zwischenankunftszeit) gilt hier S (Bedienzeit des Kunden) und statt λ (Ankunftsrate) gilt µ (Bedienrate). im kompletten q System (W ) warten muß. L = λW . die vermehrt in praktischen Anwendungen benötigt werden. 1. es ist die Wahrscheinlichkeit. wenn konvergentes Verhalten vorliegt.h. 2. ab dem sich ein neuer Kunde entschließt. Die durchschnittliche Länge der Warteschlange L := E(d) = ∑jπj L = L – (1-π0) q Es kann nun auch passieren. In diesem Fall könnten die stationären Wahrscheinlichkeiten über folgende Formel berechnet werden: πj = (1 − ρ ) ρ j 1 − ρ r +1 Erwartete Anzahl von Kunden d im Wartesystem mit πj stationäre Wahrscheinlichkeit. die es erlaubt. 1. die ein Kunde in der Schlange (W ) bzw. auf die q durchschnittliche Wartezeit zu berechnen.01 Wartesystem mit unverändertem Warteverhalten Analog zum betrachteten Ankunftsprozess kann man den sogenannten Bedienprozess betrachten. an den Pfeilen die möglichen Übergänge. Wichtig sind die letzten beiden Beziehungen. also um α korrigiert: λeff = λα = λ(1-πr) = µ (1-π0). dass Schlange schon voll) Daraus ergibt sich dann die effektive Ankunftsrate. Problem: Wie erhalten wir die durchschnittliche Anzahl von Kunden.07. Aber die Rate der Warteschlange verändert sich ab dem Punkt. Jacob . dass sich ein ankommender Kunde in die Schlange einreiht: α = 1-πr (also 1-W’keit. Diese Formel lässt sich mit den zuvor abgeleiteten Beziehungen für L so kombinieren. 30 / 30 © A. dass j Kunden im Wartesystem.

Abzuleiten ist alles aus dem Gleichgewichtsfall: ankommende Kunden – abgearbeitete Kunden = 0. bis zu s Kunden bildet sich keine Warteschlange.h. d. ab s Kunden wird diese dann mit sµ abgearbeitet.0 Die stationären W’keiten berechnen sich jetzt nach: π0 = (1 + ∑ δ ) j πj = δ π0 i -1 24. 31 / 31 © A. Der einzigste Unterschied zu M|M|1 besteht darin. dass die Bedienrate variabel wird.07.Ver. 1.01 Das Wartesystem M|M|s Nun sei die Möglichkeit von s parallelen identischen Abarbeitungsschaltern gegeben. Jacob .

You're Reading a Free Preview

Herunterladen
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->