Ver. 1.

0

24.07.01

Zusammenfassung „Einführung in die Operations Research I/II“ bei Prof. Neumann I. Lineare Optimierung

Die Lineare Optimierung ist dadurch gekennzeichnet, daß sowohl die Zielfunktion wie auch die Funktionen der Entscheidungsparameter linear sind, d.h. Geraden in einem Koordinatensystem bilden. Beispiele: Produktionsplanung: Wie optimiere ich bei beschränkter Faktoreinsatzmenge und mehreren Outputs meinen Gewinn? Transportproblem: Welches Lager beliefert welchen Kunden mit welcher Menge? Verkehrsnetze: Welches ist der kürzeste / schnellste Weg durch das Netz? Tourenplanungsproblem: Wie erreiche ich auf kürzestem Weg in kürzester Zeit meine Kunden? Zuordnungsproblem: Welche Bewerber soll ich auch welche Stelle setzten und wonach auswählen? Verschnittproblem: Wie wähle ich mein Schnittmuster, so daß möglichst wenig Verschnitt entsteht?

II.

Nichtlineare Optimierung

Nichtlineare Optimierung muß dann angewendet werden, wenn auch nur eine nichtlineare Zielfunktion oder Nebenbedingung auftritt. Dies ist häufig bei wechselseitigen Abhängigkeiten von Einflußgrößen der Fall. Beispiel: Nichtlineare Produktionsplanung: Wie produziere ich effizient, wenn der Energiebedarf schwankt und ich günstigere eigene Energie und teure Fremdenergie zur Verfügung habe, welche sich aus Bereitstellungs- und Verbrauchskosten zusammensetzt?

III.

Dynamische Optimierung

Diese Art der Optimierung ist meistens unter Berücksichtigung von nichtlinearen Zusammenhängen bei planungsablaufabhängigen Problemen der Fall. Hier können auch Prognosen in die Planung mit einfließen. Beispiel: Ersatzteilbeschaffung: Welches Ersatzteil verwende ich, wenn sie zu unterschiedlichen Preisen und Lebensdauern zur Verfügung stehen? Dynamische Lagerhaltung: Verringerung von Stillstandzeiten durch Pufferhaltung. Maschinenbelegungsplanung: Wie kann ich meine Stillstandszeiten einer Fertigungsstraße minimieren? Warteschlangen: z.B. Supermarktkassenschlange bei zufallsbedingter Ankunft und Kassiermenge von Kunden.

1/1 © A. Jacob

Ver. 1.0

24.07.01

Inhaltsverzeichnis
Zusammenfassung „Einführung in die Operations Research I/II“ bei Prof. Neumann ............................ 1 I. Lineare Optimierung ......................................................................................................................... 1 II. Nichtlineare Optimierung .............................................................................................................. 1 III. Dynamische Optimierung.............................................................................................................. 1 Inhaltsverzeichnis................................................................................................................................. 2 Lineare Optimierung ................................................................................................................................ 3 Formulierung eines linearen Optimierungsproblems........................................................................ 3 Lösung des Problems ....................................................................................................................... 3 Typische Eigenschaften linearer Optimierungsprobleme................................................................. 3 Standardproblem der Linearen Optimierung .................................................................................... 3 Die entartete oder degenerierte Ecke............................................................................................... 4 Das Simplexverfahren ...................................................................................................................... 4 Kleinste-Index-Regel ........................................................................................................................ 5 Der Austauschschritt der Simplexmethode ...................................................................................... 6 Dualität.............................................................................................................................................. 6 Modifikationen des Standardproblems und Sonderformen des Simplex ......................................... 8 Sensitivitätsanalyse und parametrische Optimierung .................................................................... 10 Vektoroptimierung und Goal-Programming .................................................................................... 10 Zwei-Personen-Nullsummenspiele................................................................................................. 11 Graphen und Netzwerke .................................................................................................................... 12 Graphen und Digraphen auf Rechnern .......................................................................................... 13 Minimalgerüste ............................................................................................................................... 13 Kürzeste Wege in Netzwerken ....................................................................................................... 14 Kürzeste Wege zwischen allen Knoten .......................................................................................... 15 Elemente der Netzplantechnik........................................................................................................ 15 Das Gantt-Diagramm .................................................................................................................. 16 Flüsse in Netzwerken ..................................................................................................................... 16 Das Transportproblem .................................................................................................................... 17 Ganzzahlige und kombinatorische Optimierung ................................................................................ 18 Ganzzahlige Optimierungsprobleme mit total unimodularer Koeffizientenmatrix .......................... 19 Verfahren von Gomory zur Lösung eines rein ganzzahligen Optimierungsproblems.................... 19 Die Branch-and-Bound-Methode zur Lösung kombinatorischer Probleme.................................... 19 Branch-and-Cut-Verfahren ............................................................................................................. 20 Nichtlineare Optimierung ....................................................................................................................... 22 Spezialfall der nicht-linearen Optimierung: konvexe Optimierungsprobleme ............................. 22 Lagrange-Funktion und Karush-Kuhn-Tucker-Bedingung .......................................................... 22 Dynamische & stochastische Modelle und Methoden ........................................................................... 24 Problemstellung der allgemeinen dynamischen Optimierung .................................................... 25 Bellmansches Optimalitätsprinzip................................................................................................... 25 Bellmansche Funktionalgleichung .................................................................................................. 25 Bellmansche Funktionalgleichungsmethode .................................................................................. 25 Lagerhaltung................................................................................................................................... 27 EOQ-Modell (economic order quantity........................................................................................ 27 Deterministisches dynamisches Modell ...................................................................................... 28 Warteschlangen ................................................................................................................................. 29 Das Wartesystem M|M|1............................................................................................................. 29 Das Wartesystem M|M|s ............................................................................................................. 31

2/2 © A. Jacob

Ver. 1.0

24.07.01

Lineare Optimierung
Formulierung eines linearen Optimierungsproblems
a) Spezifikation der gesuchten Größen bzw. Entscheidungsvariablen b) Formulierung aller Nebenbedingungen des Problems als lineare Gleichungen oder Ungleichungen für die Entscheidungsvariablen (inkl. Nichtnegativitätsbedingung) c) Spezifikation der Zielfunktion in Form einer linearen Funktion der Entscheidungsvariablen, die zu minimieren oder maximieren ist.

Lösung des Problems
a) Graphisch: Möglich bei zweidimensionalen Problemen. Grenze den möglichen Bereich M durch die Nebenbedingungen ab und maximiere bzw. minimiere die Zielfunktion durch Verschieben der Geraden. b) Analytisch: Setze das Simplexverfahren ein.

Typische Eigenschaften linearer Optimierungsprobleme
a) Der zulässige Bereich M ist ein Vieleck. b) Das Optimum wird auf dem Rand (Ecke oder Gerade) angenommen. c) Mindestens eine Ecke des zulässigen Bereichs stellt eine Optimale Lösung dar.

Standardproblem der Linearen Optimierung
 Min F ( x) := cT x  L  u.d .N . Ax = b  x≥0 
mit: A eine beliebige mxn-Matrix n c ein beliebiger Vektor des R m b ein beliebiger Vektor des R

Jedes Optimierungsproblem muß zunächst auf die Standardform gebracht werden, um die optimalen Lösungen zu bestimmen. Die Menge jener optimalen Lösungen ist konvex.
j j

x = ( x1 ,..., xn ) r ∈ M ist

genau dann Extrempunkt, wenn diejenigen Spaltenvektoren a von A linear unabhängig sind, deren Koeffizienten x in der Darstellung

∑x a
j j =1

n

j

= b positiv sind.

Graphisch ist der zulässige Bereich M vom LP ein konvexes Polyeder. Konvexität liegt vor, wenn die Verbindungslinie zweier beliebiger in der Menge liegenden Punkten ebenfalls in der Menge enthalten ist. Die Extrempunkte von M sind die Ecken des zulässigen Bereichs. Die meisten Probleme liegen nicht in der Standardform vor. Dann ist wie folgt vorzugehen: 1. Schlupfvariablen so einführen, daß Gleichheit geschaffen wird: 2. Maximum in Minimum umwandeln: Max 2 x1 + 5 x2 3. Substitution bei nicht eindeutiger Nichtnegativitätsbedingung:

x1 + x 2 ≤ 1 ⇒ x1 + x 2 + x3 = 1 ⇒ Min − 2 x1 − 5 x2

x1 ≥ 3  x1' = x1 − 3  x1 = x1' + 3 einsetzen in Optimierungsproblem. 4. Substitution bei nicht vorhandener Nichtnegativitätsbedingung: Führe ein x3 (≥ 0) ein mit x3 := max(− x1 ;− x2 )  x1' = x1 + x3 x = x' − x  1 1' 3 einsetzen in Optimierungsproblem. ' x2 = x2 + x3 x2 = x2 − x3

So ist garantiert, daß beide Zahlen im positiven Bereich liegen oder Null sind.

3/3 © A. Jacob

. 3 Ein Beispiel: Wir haben im R drei Geraden gegeben. der zu minimieren ist. x5 ≥ 0 ' ' ' ' ' (vgl... Von einer Ecke ausgehende erhält man die benachbarte Ecke durch einen Austauschschritt..0. Die Basis einer solchen Ecke ist nicht eindeutig. wobei diese bei einer entarteten Ecke nicht eindeutig T ist. Im dualen Simplex müssen es mehr als m positive Komponenten sein. x m ..0) ist Basislösung mit x1 . 1.. Das Ziel: Alle NBV müssen in der Zielfunktion (ZF) positiv sein.. macht sich die entartete Ecke im Simplex dadurch kenntlich. Tutorium Aufgabe 9. hat die entsprechende Ecke nur die beiden positiven Komponenten x3. daß die Ecke x von M mit weniger als m positiven Komponenten bestückt ist.0 24.d . wird gegen einen aus der Basis ausgetauscht. Jacob .x5=0 gilt. Dazu wird eine bisherige NBV zu einer BV und eine BV zu einer NBV..b) Die entartete oder degenerierte Ecke Diese Besonderheit ist dadurch charakterisiert. Dabei gilt: x := ( x1 ...N .. Da 2<rgA=3 Die Ecke ist entartet.N . daß graphisch gesehen sich drei oder mehr Geraden in einem Punkt schneiden oder analytisch ausgedrückt.07.. x2.. Anschaulich: Einer in der Matrix A befindlichen Spaltenvektoren.Ver.. um auf das Standardproblem der linearen Optimierung zu gelangen.. Das Simplexverfahren Das Prinzip: Durch das Simplexverfahren erhält man eine endliche Folge von Ecken des zulässigen Bereichs M. so daß eine Vergrößerung einer NBV auf jeden Fall einen größeren ZF-Wert ergeben würde.... 4/4 © A.01 Max 2 x1 + 5 x2 x1 + x2 ≤ 9 − x1 + 2 x2 ≤ 5 x1 ≥ 3 x2 ≥ 2 u. 4 x1 + x2 + x3 = 10 x1 + x2 + x4 = 4 − x1 + 2 x2 + x5 = 4 x1 . Da längs der drei Geraden x3. dass ein xk aus Feld 5 Null ist und die Zeile weniger als m positive Komponenten hat....d . Also bildet A eine (5x3)-Matrix mit rgA=3.0 Nichtbasisvariablen (NBV) Im Simplex: Wie später zu sehen sein wird.. Graphisch: x besitzt eine dazugehörige Basis. Ausgegangen wird immer vom Standardoptimierungsproblem. xm Basisvariablen (BV) Jede Ecke x Ecke von M ⇒ x gehört zum zulässigen Bereich 0. zu denen drei Schlupfvariablen hinzukommen.. der noch nicht zur Basis gehört.. 4 x1 + x2 ≤ 24 Beispiel: Min − 2 x1 − 5 x2 ' ' u. Man gelangt somit zur nächsten Ecke.

zu wiederholen. Nun muß man die aktuelle Basis als Funktion der NBV darstellen: ξ = −2 x1 − 5 x2 − 16 x3 = −4 x − x + 10 ' x4 = − x1' − x2 + 4 ' x5 = x1' − 2 x2 + 4 ' 1 ' 2 ' ' ( ZF ) dabei gilt: 1.2 ).0)T x2 = x1' − x5 + 2 ZF = −26 2 2 Da alle Komponenten von x positiv sind.2' ) 9 5 1 1   ξ = − x1' − x5 − 26 = −2 x1' − 5 x2 ' − 16 = −2 x1' − 5( x1' − x5 + 2) − 16 2 2 2 2   9 ' 1 x3 = − x1 + x5 + 8 2 2 3 ' 1 x4 = − x1 + x5 + 2 2 2 1 1 ' ⇒ x = (0. Standardform: A =  1 1 0 1 0  b =  4  cT = (−2.−5.01  4 1 1 0 0 10      1. ist dies der minimale ZF-Wert.0 Beispiel (Fortführung obiger Umformungen): 24.4.4. Die ZF ist nur Funktion der NBV 2. wählt man als Pivotspaltenindex l‘ und als Pivotzeilenindex k‘ jeweils den kleinstmöglichen Index: l ':= min{l ∈ N ζ l < 0} .2.5). x5 ≥ 0 ): ' ' x3 = −4 x1' − x2 + 10 ≥ 0  x2 ≤ 10 ' ' x4 = − x1' − x2 + 4 ≥ 0  x2 ≤ 4 ' ' x5 = x1' − 2 x2 + 4 ≥ 0  x2 ≤ 2 ⇐ 5. Jetzt stellt sich die Frage.0.8.h. bis 5.0. Es wird immer diejenige NBV hinzu genommen. 1. Dies wird auch Austauschschritt genannt. Minimum aus Feld 5.0. welche die ZF am stärksten minimiert (hier -5 < -2 in der ZF). da ' x2 erhöht werden darf.4. Ansonsten wären die Schritte 2..07. B = (3.10. Jede NB enthält genau eine BV mit Koeffizient 1. Jacob .2. 4. die in keiner anderen NB auftritt.5) 2. wie weit ' x2 .Ver. B = (3.. d.. 3. des Simplextableaus k ':= Minimum des Index aus Feld 7. Transformation durchführen: N = (1' . Die NBV müssen nun in die Basis aufgenommen und die BV aus der Basis entfernt werden.4) mit N = (1 . des Simplextableaus 5/5 © A. ohne den zulässigen Bereich zu ' verlassen ( x1 = 0 und x3 ..0)  −1 2 0 0 1  4     T ' ' Die erste Ecke ergibt sich somit zu x = (0. Kleinste-Index-Regel Damit ein Kreisen im Simplex bei einer entarteten Ecke verhindert wird.

Gilt: ζ l > 0 ∀l ∈ N die aktuelle Ecke x ist die optimale Lösung des Problems. Verfahre mit den übrigen Feldern nach folgenden Regeln: I. die Indizes k‘ und l‘. Diese sind in diesem Fall an den Feldern des Tableaus orientiert: 1. bestimmt l‘ gemäß der kleinsten Indexregel. Rechte Seite der Nebenbedingungen geteilt durch das Pivotspaltenelement (wichtiges Feld bei der Determinietung einer entarteten Ecke) Der Austauschschritt der Simplexmethode Um nun ausgehend von den im Simplextableau eingetragenen Daten zur optimalen Lösung zu gelangen. muß man ebenfalls Austauschschritte durchführen. Vorfaktoren der Zielfunktionswerte 6. 2. hat die Pivotspalte keine positiven Elemente keine optimale Lösung! Sonst: Berechne Feld 7. auch primäres Problem genannt.h. Jacob . Ist x eine entartete Ecke.07.01 Das Simplextableau Jede Ecke im Simplexverfahren kann in folgendem Simplextableau dargestellt werden: Dabei gibt es folgende Felder: 1. und 2. Nichtbasisvariablen (anfangs Schlupfvariablen) 3. Jene Spalte wird zur Pivotspalte l‘. Sonst: Wähle das kleinste ζ l aus (bei mehreren: kleinster Index). ist gleich 0.0 24. 4. Rechte Seite der Nebenbedingungen 5. Flüsse in Netzwerken.h. Gilt: γ kl ' ≤ 0 .Ver. Würde man das duale Problem wiederum dualisieren. Kostenplanung im Rahmen der Netzwerktechnik und weiteren Anwendungen benötigt. für alle γ kl ' > 0 ! 3. wenn alle Elemente in 5. erhielte man wieder das Ausgangsproblem (P). größer als Null sind. Die zugehörige Zeile heißt Pivotzeile k‘. Negativer Zielfunktionswert 7. Basisvariablen 2. Pivotzeile ohne Pivotelement: b b/a III. Pivotspalte ohne Pivotelement: c -c/a =: c (Wird oftmals in einer Hilfsspalte rechts neben dem Tableau ausgeschrieben) IV. Pivotelement: a 1/a II. gibt es ein duales lineares Problem (P). mindestens ein xk in 4. Dualität Zu jedem linearen Optimierungsproblem (P). Die Aufstellung des dualen Problems folgt folgenden Regeln. d. Diese Form des Optimierungsproblems wird bei Strategien in der Spieltheorie. Übrige Elemente: d d – bc/a = d+b c Anschaulich: altes Element + (Altes Zeilenelement ⋅ neues Spaltenelement) Zum optimalen Ergebnis kommt man. welche für beide Seiten gültig sind: 6/6 © A. d. 1. 5. den kleinsten Wert aus. Vertausche in den Feldern 1. Vorfaktoren der Nebenbedingungen 4. Wähle aus Feld 7.

N . ob die vorhandenen Rohstoffe verkauft werden sollen oder ob es rentabler ist.h. das Einfachere per Simplex zu lösen. da bei bekannten zulässigen Lösungen für x und u das ursprünglich Problem eingeschlossen werden kann: G(u) ≤ F* ≤ F(x) 7/7 © A. also keine produzierte ME.Ver. xj = 0 sein... Das duale Problem kann es einem erleichtern. Variable ≤0 NB ≥0 Gleichung Rechte Seite der NB Transponierte der Koeffizientenmatrix Dualitätstheorem: Haben beide Probleme (L) und ( L ) zulässige Lösungen.. Jacob . indem man das primale Problem mit der dualen Simplexmethode löst und sich danach den Satz den komplementären Schlupfes zunutze macht..01 Primales Problem P (Duales ProblemP) Minimumproblem Variable Vorzeichenbeschränkte Variable Nicht vorzeichenbeschränkte Variable Koeffizienten der Variablen in der ZF Koeffizientenmatrix Duales ProblemP (Primales Problem P) Maximumproblem Echte Nebenbedingung Ungleichung (≥ beim Minimumproblem. um auch die duale Lösung zu erhalten. d..07. Es seien: xj := Anzahl der produzierten ME des Produktes Pj cj := Durch Fertigung einer ME von Pj erzielbarer Gewinn aij := Benötigte ME des Rohstoffs i zur Herstellung einer ME von Pj yi := Verkaufspreis einer ME des Rohstoffs  m  x*  ∑ aij yi* − c j  = 0 j  i=1  ⇒ ∑a i =1 m ij yi* > c j (Verkauf der Rohstoffe besser als Produktion) In diesem Fall muß. eine Lösung des dualen Problems anzugeben.d . einen optimalen ZF-Wert zu finden. Ax = b  x≥0  ⇒ Max G (u ) := bT u  L  u.N . m) Satz vom komplementären Schlupf: Hat dabei eine NB von primalen Problem im Optimum Schlupf (< oder >).. ≤ beim Maximumproblem). dann hat die entsprechende NB vom dualen Problem keinen Schlupf ( = )! Anwendung: Meistens ist man aus Bequemlichkeit geneigt. Beispiel:  Min F ( x) := cT x  L  u. Beispiel: Es soll eine Entscheidung darüber gefällt werden. damit die erste Gleichung erfüllt wird.. so besitzen beide Probleme optimale Lösungen mit identischen ZF-Werten! Dies kann bei der Lösung eines Problems ausgenutzt werden.. damit zu produzieren. da es reicht. 1. q) j = (1.d . AT u ≤ c  u ∈ Rm  Bei einer optimalen Lösung beider Probleme müssen die folgenden Optimalitätsbedingungen zutreffen:  m  x*  ∑ aij ui* − c j  = 0 j  i =1    q u *  ∑ aij xi* − b j  = 0 j    i =1 j = (1.0 24.

1. Ziel: Im Simplex müssen alle mit + markierten Spalten einen negativen. Eine Basisvariable xk kann ihre obere Grenze βk >0 erreichen III. 2. Dieser Spielraum wird hier durch δ1 (untere Schranke) und δ2 (obere Schranke) dargestellt: Falls keine solchen δ1 oder δ2 existieren. Im Simplextableau wird die entsprechende Spalte mit – markiert. so existiert keine optimale Lösung des Problems. setze sie gleich ∞ ! 4.01 Opportunitätskosten. wenn xl‘ = βl‘ Wert der NBV verringern. Knappheitskosten oder Schattenpreise vi* ist derjenige Betrag.0 24. um den ZF-Wert zu verkleinern. 8/8 © A. Drei verschiedene Möglichkeiten im Simplex kommen hier in betracht: I. Knappheit erkennt man daran. wenn man die verfügbare Menge eines Produktionsfaktors Ri um eine Einheit von bi auf bi+1 erhöht. Modifikationen des Standardproblems und Sonderformen des Simplex 1. b) Falls ζl‘ >0. wenn xl‘ = αl‘ Wert der NBV anwachsen lassen. folgendermaßen behandelt: a) Falls ζl‘ <0. Ist vi*>0.) erreichen. die die entsprechende Variable zu ihrer unteren bzw. Gilt δ‘=∞. Vorgehen: 1. Untere und obere Grenze für einzelne Variablen Beispielsweise sei hier der Fall von Lieferverpflichtungen (untere Grenze) und andererseits Kapazitätsbeschränkungen (obere Grenze) bei der Höchstmenge erwähnt. falls nicht schon Fall a) oder b) durch ein angebrachtes + oder – erfüllt ist. Eine Basisvariable xk kann ihre untere Grenze αk >0 erreichen II. oberen Schranke hat. den man mehr einnimmt. Die Nichtbasisvariable x’l kann ihre obere Grenze β‘l (Fall a. die addiert zur kleinsten xσ Null ergibt). Bei der Optimierung im Simplex werden Fall a.07. so daß x‘σ = xσ + x’n+1 = 0 (σ = alle nicht vorzeichenbeschränkte Variablen) gilt (x’n+1 ist diejenige positive Variable. und Fall b. Variablen ohne Vorzeichenbeschränkung Vorgehen: Führe eine zusätzliche Variable x’n+1 ein. dass die in die entsprechende NB eingesetzte optimale Lösung nicht zur vollen Ausreizung der NB führt. so ist der Faktor knapp (mehr von dem Faktor bringt mehr Gewinn). indem man obere und untere Grenze beispielsweise in eine Tabelle einträgt. Jacob .) oder ihre untere Grenze α‘l (Fall b. Wähle für die Pivotspalte den kleinsten Index. alle mit – markierten Spalten einen positiven ZF-Wert haben optimale Lösung.Ver. Im Simplextableau wird die entsprechende Spalte mit + markiert. um den ZF-Wert zu verkleinern. 3. 2. Nun muß man die „Luft“ ermitteln. Zunächst sollte man sich der Grenzen der Variablen bewußt werden. Jetzt wird für die beiden Spielräume sowie für den gesamten Abstand das Minimum δ‘ gesucht: 5.

1. Vorgehen Simplex: Im Vergleich zur primalen Methode wird zuerst die Pivotspalte anhand Feld 7 und dann die Pivotzeile bestimmt.d . y ≥ 0. so ist keine Austauschschritt nötig. Diese Zeile ist Pivotzeile.xl‘. Ansonsten wähle für k‘ den kleinsten Index k.N . so markiere k‘ mit + und ersetze in Feld 4 xk‘ durch xk‘ . so markiere k‘ mit – und ersetze in Feld 4 xk‘ durch xk‘ .Ver.01 Gilt δ‘= xl‘ . daß mindestens eine rechte Seite kleiner als Null ist.βk‘. Anschaulich: Grundsätzliches Vorgehen ist. daß man sich über Ecken des unzulässigen Bereichs in den zulässigen Bereich hangelt.: Min c T x  1 1  u. Vertausche in den Feldern 1 und 2 die Indizes k‘ und l‘. 6. Gilt hierbei δ‘= δ2. wie sie für die primale Simplexmethode der Form (L) notwendig ist.B. w = 0  9/9 © A. Gilt δ‘= βl‘ .0 24.αl‘. A x + y = b  A2 x + w = b 2   x. 4. um ganz allgemein gehaltene Lineare Optimierungsprobleme zu lösen. Die Duale Simplexmethode Warum?: Diese Methode erlaubt die Lösung von linearen Optimierungsproblemen. so ist keine Austauschschritt nötig. Beispiel: Siehe Buch Seite 101 oder Tutorien Aufgabe 28. Markiere die Spalte mit – und erhöhe die Werte xk in Feld 4 um δ‘γkl‘ und den Wert in Feld 6 um δ‘ζl‘ und gehe wieder zu Schritt 1. z. Forme die Felder 3 bis 6 nach den Simplextransformationsregeln um.αk‘. Markiere die Spalte mit + und verringere die Werte xk in Feld 4 um δ‘γkl‘ und den Wert in Feld 6 um δ‘ζl‘ und gehe wieder zu Schritt 1.07. Erkennen lassen sich solche Probleme daran. Die vorangegangenen Ecken sind auf Schnittpunkten der Begrenzungsgeraden des zulässigen Bereichs angesiedelt. A x ≤ b  A2 x = b 2   x≥0  ⇒  Min c T x  1 1  u. Die Dreiphasemethode Warum?: Dieses Verfahren wird benötigt. Nur die letzte Ecke ist schließlich zulässig und optimal. Sind jedoch zudem alle Elemente der Pivotzeile positiv.d . 7. Ziel: Alle xk in Feld 4 müssen größer als Null sein.N . für den das Minimum δ‘ angenommen wird. Beispiel siehe Buch Seite 95! 3. die zwar keine Anfangsecke haben. Addiere zum Wert der neuen BV nach der Transformation den Wert der entsprechenden NBV vor der Transformation. Gilt hierbei δ‘= δ1. Jacob . nicht nur solche vom Typ (L). so existiert keine optimale Lösung. Dann wird wie in der primalen Methode vorgegangen. jedoch eine dual zulässige Anfangsbasislösung leicht angeben läßt.

da sie sich gegenseitig beeinflussen. Beispiel: Siehe Buch Seite 109 oder Tutorien Aufgabe 27. Kostenminimierung bei gleichzeitiger Qualitätsmaximierung. die einer der Hilfsvariablen wi einspricht.h. setze δ = wahr.Ver. 1. sonst δ = falsch. wie x und y. sobald alle Hilfsvariablen NBV’s geworden sind. Vektoroptimierung und Goal-Programming Bisher betrachtete Optimierungsprobleme hatten eine ZF. Nun können jedoch auch mehrere Zielfunktionen mit den gleichen NB’s in einem Problem zusammengefaßt werden. Die Phase ist beendet. D. daß man nicht alle ZF’s gleichzeitig zu ihrem Optimum bringen kann. z.07. + δ = falsch: Berechne xi/γil‘ für alle j ∈ B mit γil‘ > 0 und wähle die Kleinste. wähle aus dieser Spalte κ unter den negativen γkl das Kleinste und nimm jene Spalte als Pivotspalte. daß diese Daten zunächst als fix angesehen werden und im nachhinein (ex post) analysiert werden. Das Problem ist. bei Messungen bestimmter technischer Größen auf. daß das Pivotelement nicht gleich Null ist. es kann sich zwar die optimale Lösung und der zulässige Bereich verändert.B. so hat das Problem keine zulässige Lösung. es wird jedoch vermieden. eine zulässige Basislösung zu finden. Sollten alle γkl > 0 sein. im unteren die NB’s mit Hilfsvariablen. welche zu optimieren ist. δ = wahr: Beginne Phase 2 von Neuem. Vorgehen: Wähle ein xk < 0 aus. Sensitivitätsanalyse und parametrische Optimierung Nun soll der Fall zugelassen werden. Dies tritt z. Die ZF’s werden zu diesem Zweck in einem Vektor zusammengefaßt. und sog. Die geschieht bei der sog. so spricht man von einer parametrischen Optimierung. echt Schlupfvariablen. Hilfsvariablen. zu einer nächsten Ecke überzugehen.01 Dabei muß man in sog. daß alle Inhalte von Feld 4 nichtnegativ sind. Die Zeile k‘ dieser Zahl ist die Pivotzeile. Gelöst kann ein solches Problem letztendlich dadurch. daß sich Problemdaten im Laufe der Zeit verändern. Dabei können folgende Lösungen der Problems auftreten: 10 / 10 © A.h. In jedem Austauschschritt dieser Phase wird als Pivotzeile eine Zeile gewählt. so daß es immer nur einen „besten Kompromiß“ geben kann. daß nur qualitativ gleichwertige Lösungen berücksichtigt werden. Führe den Austauschschritt durch. 2. Ziel dieser Phase ist es. Abgesehen von w=0 entspricht das Optimierungsproblem der Standardform (L). Sind alle γkl < 0. Benutze die primale Simplexmethode zur endgültigen Lösung. 3. d. Jacob . Sensitivitätsanalyse der Form.0 24. Dies wird in folgendem Simplextableau der Dreiphasenmethode ersichtlich: Im oberen Abschnitt stehen die echten NB’s. Lösung: Die Lösung des Problems wird in folgenden drei Phasen abgebildet: 1. Bei der Wahl der Pivotspalte ist lediglich zu beachten. Nach der Transformation des Tableaus kann die entsprechende Spalte gestrichen werden. unterscheiden.B. zu erreichen. Sollte dies der Fall sein. hier w.

Vorsicht: Auszahlungsmatrix immer aus Vorteilssicht des einen Spielers. positive Gewinne von Spieler 2 werden mit einem – versehen.Ver. d... Zunächst ein paar Begriffsdefinitionen: Strategie: Vollständige Handlungsanweisung. 0.n) mit aij = Auszahlung an Spieler 1 bei Strategie si. Das Goal-Programming berücksichtigt zusätzliche zu der reinen Vektoroptimierung eine Gewichtung der verschiedenen ZF’s. Dominanz von Strategien: Ist eine Zeile in der Auszahlgsmatrix in allen Elementen kleiner oder gleich einer anderen. x* ist pareto-optimal. müssen während eines Spiels Strategiewechsel der beteiligten Personen stattfinden.01 D... Faires Spiel: Ein Sattelpunktspiel ist fair. 3. Lösung eines Matrixspiels. es ist eine ZF optimaler als alle weiteren r-1 ZF’s. Diese Mischung aus verschiedenen Strategien wird mit einer Wahrscheinlichkeit behaftet. l∈{1. wenn Spieler 2 Strategie tj wählt.. jetzt kommt „taktisches Geschick“ mit ins Spiel. Stimmen die beiden Werte überein. Es können auch anteilig Zeilen verglichen werden. Exhaustiv alle Strategien beider Spieler festlegen und in x. y ) gleichbedeutend mit y x x y - Min(Max(Spalten))=Max(Min(Zeilen)).r} Zwei-Personen-Nullsummenspiele In der Spieltheorie werden Entscheidungssituationen untersucht. Spieler 1 verfolgt Strategie S und Spieler 2 Strategie T Reine Strategie: Die Spieler bleiben während der gesamten Partie bei einer Strategie Gemischte Strategie: Die Spieler wechseln während einer Partie ihre Strategie Optimale Gegenstrategie: Strategie des einen Spielers dominiert die Strategie des anderen.h. Das Vorgehen bei Bestimmung der optimalen Lösung eines Spiels: 1. Dies alles unter der Voraussetzung. c kT x ≤ c kT x * für k= 1. eine reine Strategie zu verfolgen. daß der Gewinn des einen Spielers den Verlust des anderen Spielers ausmacht.(Spieler 2) und y-Richtung (Spieler 1) an die Auszahlungsmatrix notieren.. nämlich die Optimale.B. dabei immer aus Sicht von Spieler 1 vorgehen.. deren optimale Entscheidungen auf der Lösung von zwei dualen linearen Optimierungsproblemen beruhen. Demnach ist es bei dieser Spielvariante sinnvoll.B. wenn w=0 ist. t∈T Nullsummenspiele: Summe aller Gewinne ist gleich Null.h. lT 2. Das Maximum der Minima aus den Zeilen und das Minimum der Maxima aus den Spalten ermitteln..07.r} c lT x * ≤ c lT x ∀x∈M. 1. Papier-Stein-Schere-Knobeln Sattelpunktspiele: Es gibt ein optimales Strategiepaar. Jacob . 2.. Hier werden im speziellen nur Spielsituationen betrachtet.m.h. so daß sich für Spieler 1 der Vektor x und für Spieler 2 der Vektor y mit den Wahrscheinlichkeitsverteilungen ergibt.0 1. das nicht als reines Sattelpunktspiel vorliegt: Um solche Spiele zu lösen. an denen mehrere Akteure. die Spieler genannt werden. z. so kann sie gestrichen werden... welches eine optimale Lösung des Spiels ist. falls keine x ∈ M existiert. falls gilt: D..h. j=1. Diese Vektoren werden 11 / 11 © A. ein l ∈ {1. Sie wird dominiert. ohne daß ein anderes verschlechtert wird.5 × Zeile 2 ≥ Zeile 3. für das gilt: 24. handelt es sich um ein Sattelpunktspiel. Ist eine Spalte in der Auszahlungsmatrix in allen Elementen größer oder gleich einer anderen.r (r = Anzahl der ZF’s) c lT x < c lT x * für min. Auszahlungsmatrix: A bestehend aus aij := a(si. so spricht man von strenger Dominanz.. daher ist beim zweiten Spieler der Vorteil in den kleineren Werten! Partie: Einmalige Ausführung des betrachteten Spiels Gewinn (Auszahlung): Gewinn oder Verlust abhängig von der gewählten Strategie s∈S bzw. die für alle auftretenden nicht beeinflußbaren Fälle definiert ist. d. x* ist individuell-optimal für c .. Gilt für alle Elemente < (>)... wenn obige Bedingung für beide Fälle 0 ist.tj) (i=1. Ein Spiel mit gemischten Strategien ist fair. in dieser Situation kann kein Zielkriterium verbessert werden. so kann sie gestrichen werden... da sie für Spieler 1 einen Verlust darstellen. Sie wird dominiert. z. beteiligt sind.. für diese Spielvariante gilt: min max f ( x. Ausfüllen der Matrix.5 × Zeile 1 + 0.. y ) = max min f ( x. an denen zwei Spieler beteiligt sind.

Kette: Kantenfolge mit lauter verschiedenen Knoten Kreis (Zyklus): Kantenfolge mit lauter verschiedenen Zwischenknoten. Jacob . x*:=u*/w* und y*:=v*/w* sind die optimalen Strategien von Spieler 1 und 2. Zusammenhang: Je zwei Knoten im Graphen sind miteinander verbunden. Pfeile Zusammenhängender Graph: Alle Knoten sind von jedem Knoten im Graphen zu erreichen. Topologische Sortierung: Für jeden Vorgänger k eines Knotens i gilt k < i und für jeden Nachfolger j von i gilt j > i. -1 (Knoten eµ negativ inzident mit i) und 0 (Knoten eµ nicht inzident mit i) In jeder Zeile der Inzidenzmatrix stehen demnach die Knoten und in jeder Spalte die Kanten bzw.j] (<i. daß jedes Element der Matrix positiv wird. Antisymmetrischer Digraph: Ein Digraph ist antisymmetrisch. Das so entstandene lineare Optimierungsproblem ist zu lösen. X(S) und Y(T) sind Strategiemengen. der keinen Vorgänger besitzt. 4. Echter Teilgraph: Enthält z. In jeder Spalte sind genau zwei Elemente von 0 verschieden. Schlingen: Anfangs. wenn mit je zwei verschiedene Knoten i und j auch die Kante [i.i> enthalten ist. aber selbem Anfangs.Ver. Ungerichteter Graph: Nicht mit Pfeil versehen.j> auch der Pfeil <j. Adjazenzmatrix: Matrix mit den Elementen 1 (Kante i. Starker Zusammenhang: Wenn für alle Knoten gilt: Knoten i ist von j aus zu erreichen und j von i aus. Addiere zu allen Elementen der Auszahlungsmatrix eine Konstante α>0 derart. w=1/w*-α ist der Wert des Spiels. der keinen Nachfolger besitzt. so daß z. Dualisiere die Lösung des Problems.j nicht enthalten) Inzidenzmatrix: Matrix mit den Elementen 1 (Knoten eµ inzident mit i) und 0 (Knoten eµ nicht inzident mit i) Inzidenzmatrix für Digraphen: Matrix mit den Elementen 1 (Knoten eµ positiv inzident mit i). Vollständiger Graph: Ein Graph heißt vollständig. Aus der Perspektive der Knotens kann er positiv inzident (Pfeil geht vom Knoten weg) oder negativ inzident (Pfeil weist zum Knoten hin) sein. der auf den Endknoten hinweist. 3. Graphen und Netzwerke Grundlegende Definition der Begriffe: Inzidenzabbildung: Die Verbindung eines Knotens mit einem anderen.und Endknoten sind der Gleiche.B. Das Vorgehen bei Bestimmung optimaler Strategien: 1. versehen mit einem Pfeil. wenn der Graph keine Paare entgegengesetzt gerichteter Pfeile enthält. die alle möglichen Strategien enthalten. die Knoten und Kanten des zugrundeliegenden Graphen. Induzierter Teilgraph: Enthält zu den übernommenen Knoten alle Kanten des zugrundeliegenden Graphen. w* ist der optimale ZF-Wert. 1.und Endknoten im Graphen (Digraphen). Senke: Knoten im Digraphen. Symmetrischer Digraph: Ein Digraph ist symmetrisch.T. 2. wenn mit jedem Pfeil <i.07. Die Knoten müssen hierfür durchnummeriert sein und sukzessive abgearbeitet werden. Aufstellen des Anfangstableaus mit Maximierung der Gewinne unter den NB’s der Auszahlungsmatrix. Baum: Zusammenhängender kreisfreier Graph Wald: Kreisfreier Graph mit k Zusammenhangskomponenten (aus k Bäumen) Gerichteter Baum: Schwach zusammenhängender Digraph 12 / 12 © A. Gerichtete Kante (auch Pfeil): Es existiert in diesem Fall ein Anfangsknoten und ein Endknoten.0 24.j>) enthalten ist. Parallele Kanten (parallele Pfeile): Wenn zwei oder mehr Kanten den gleichen Endknoten oder den gleichen Endknoten und Anfangsknoten haben. Pfeile. Schlichte Graphen: Keine Schlingen und parallele Kanten bzw.01 gemischte Strategie der jeweiligen Spieler genannt. d. Gerichteter Graph oder Digraph: Mit Pfeil versehen. Kreisfreier Graph (zyklenfreier Digraph): Ein Graph (Digraph) ohne Kreis (Zyklus) Semipfeilfolge (Semiweg): Nicht alle Pfeile in einer Pfeilfolge haben die gleiche Orientierung im Dipgraphen. Schwacher Zusammenhang: Je zwei Knoten im Digraphen sind miteinander verbunden.j enthalten) und 0 (Kante i. u1* als Dualvariable den ersten Wert aus Feld 5 des Tableaus erhält. Quelle: Knoten im Digraphen.h.

ansonsten ähnlich der Vorwärtsspeicherung. gibt die Anzahl der Nachbarn im Graphen an + δ (i) := positiver Grad (Ausgangsgrad) von i. löschen oder ergänzen nur am Ende des Stapels möglich (LiFo-Speicher) Schlange (queue): Zugriff nur am Kopf der Schlange möglich (FiFo-Speicher) Heap: Elemente werden in den Knoten eines binären. Minimalgerüste Die beiden folgenden Verfahren stellen einen Greedy-Algorthmus dar.01 - - Binärer Baum: Gerichteter Baum. Insgesamt gibt es n+1 Felder dieser Art succ : Liste der Nachfolgerknoten cost : Bewertung der Kanten Backward-Star-Speicherung basiert auf einer Vorgängerliste. Mit jedem weiteren Schritt Kante mit kleinstmöglichem Gewicht hinzufügen. gibt die Anzahl der Vorgänger im Digraphen an R(i) := Menge der vom Knoten i erreichbaren Knoten im Digraphen 2(i) := Menge derjenigen Knoten. Planarer Graph: Ein Graph. kein direkter Zugriff auf eine Feld Stapel (stack): Zugriff. daß nur Verbindungen zwischen den beiden Teilen. heißt planar. daß der Teilgraph keinen Kreis enthält (nicht unbedingt zusammenhängend). der sich in der zweidimensionalen Ebene zeichnen läßt. d.0 24.07.h. welches diesen Weg bewertet. kreisfrei und zusammenhängend). nicht jedoch innerhalb eines Teils realisiert ist. Gerüst: Zusammenhängender Teilgraph mit allen Knoten und minimaler Kantenanzahl. 13 / 13 © A.E] ist das Symbol für einen Graphen mit der Knotenmenge V und der Kantenmenge E <V. Verfahren von Kruskal: 1. An der Differenz zweier Felder ist die Anzahl der vom Vorgängerknoten erreichten Felder ersichtlich. Verfahren von Prim: 1.E> ist das Symbol für einen Digraphen mit der Knotenmenge V und der Kantenmenge E N(i) := Menge der Nachbarn von i im Graphen P(i) := Menge der Vorgänger von i im Digraphen S(i) := Menge der Nachfolger von i im Digraphen δ(i) := Grad von i. 1. Wähle Kante mit kleinstem Gewicht (bei mehreren beliebig) 2. die i im Digraphen erreichen können ∧(i) := Menge der vom Knoten i erreichbaren Knoten ohne i im Digraphen Graphen und Digraphen auf Rechnern Datenstrukturen zu Speicherung eines Graphen: Lineare Liste: Wandern von Feld zu Feld möglich. Symbolik: Pfeil über Buchstaben ist ein Hinweis auf gerichtete Graphen [i.Ver.h. balancierten Baumes gespeichert. wenn sämtliche Knoten der anderen Seite von sämtlichen dieser Seite erreicht werden. Bewerteter Graph: Jeder Kante des Graphen wird ein Element c zugewiesen.j] := spezifiziert den Anfangsknoten i und den Endknoten j im Graphen <i.j> := spezifiziert den Anfangsknoten i und den Endknoten j im Digraphen [V. Wähle Kante (mit beiden Endknoten) mit kleinstem Gewicht (bei mehreren beliebig) 2. so daß der entstehende Teilgraph ein Baum ist (d. bei dem jeder Knoten höchstens zwei Söhne hat. Forward-Star-Speicherung (Nachfolgerliste) von Digraphen: Notation: n : Knotenanzahl from : Liefert den Zeiger auf die Anfangsposition der Nachfolgerliste in succ. Weitere Schritte: Wähle Kante mit kleinstem Gewicht so. Bipariter Graph (Digraph): Die Knotenmenge ist so in zwei Teile teilbar. Vollständig ist er. gibt die Anzahl der Nachfolger im Digraphen an δ (i) := negativer Grad (Eingangsgrad) von i. Durch eine lokal optimale Entscheidung wird sukzessive Teil um Teil die Lösung festgelegt. Jacob . überflüssige Kanten werden weggelassen.

Label-CorrectingVerfahren wie LC-A können Knoten mehrmals aufnehmen und dann wieder eliminieren.07. Bellmansche Gleichung: d j = min ( d i + cij ) für j ∈ ∧(r) i∈P ( j ) Notation: px := Vorgänger von Knoten x dx := Distanz zum Knoten x cij := Bewertung der Strecke i – j Q := Speicher des Algorithmus (z. Schlange) Der Baumalgorithmus ist die allgemeine Optimierungsform. der einen Knoten nur einmal aufnimmt.01 Kürzeste Wege in Netzwerken Zunächst werden von einem Startknoten r kürzeste Wege zu allen übrigen Knoten ermittelt. Dies kann man sich bei der Suche eines kostenminimalen Weges zunutze machen. Heap. Voraussetzungen: Bellmann: Der Baum muss topologisch sortierbar sein (also keine Zyklen) Dijkstra: Der Baum darf keine negativen Kosten enthalten 14 / 14 © A. Bellmansches Optimalitätsprinzip: Teilwege kürzester Wege sind selbst wieder kürzeste Wege.B. Demnach spricht man auch von Baumalgorithmen. 1. wodurch somit ein gerichteter Baum entsteht. Label-Setting-Verfahren wie Dijkstra beschreiben die Art eines Algorithmus.0 24. Jacob .Ver.

so breche das Verfahren ab. in dem man die Summe aller Entfernungen zu allen anderen Knoten minimieren möchte. Vorgänger des Projektes ist als Knoten im Netzplan eingetragen und die Anordnungsbeziehungen stellen die Pfeile dar. d. daß das Matrixelement dij mit der Summe der „dij entsprechenden“ Elemente der Spalte ν und Zeile ν.01 Kürzeste Wege zwischen allen Knoten In der Praxis sind häufig nicht nur kürzeste Wege von einem Knoten zu allen anderen gesucht. aus deren Inhalt die Entfernungen aller Knoten zueinander abzulesen sind..h. in einem Verkehrsnetz.. Der MPM-Netzplan kann negative Zyklen enthalten. n+1 15 / 15 © A.-Abstände darstellbar. Definition: Ein Vorgang i ist genau dann kritisch.0 24. verglichen und der kleinste der beiden Werte ausgewählt wird. diν+dνj. Die minimale Zeilensumme bestimmt den idealen Knoten. In dieser Methode sind zeitliche Min. Elemente der Netzplantechnik Zweck: Optimale Planung und Überwachung von Projekten (Vorhaben aus mehreren Teilarbeiten) Wichtige Größen in der Projektüberwachung: 1. sobald A begonnen worden ist. eine Entfernungsmatrix D und eine Wegematrix P aufzustellen. wenn gilt: GPi = min GPk mit k = 0. sondern die kürzesten Wege zwischen allen Knoten. ohne den Projekttermin zu gefährden.B. Kürzeste Projektdauer 2..Ver.FEZi GP ist die maximale Zeitspanne. In solch einem Fall bietet es sich an.und Endtermine aller Vorgänge 4. d. B kann begonnen werden. Symbolik: FAZi : frühest möglicher Start (Anfangszeitpunkt) von Vorgang i SAZi : spätest möglicher Start (Anfangszeitpunkt) von Vorgang i FEZi : frühest möglicher Abschluß (Endzeitpunkt) von Vorgang i SEZi : spätest möglicher Abschluß (Endzeitpunkt) von Vorgang i Di : Dauer von i FEZi = FAZi + Di und SEZi = SAZi + Di Gesamtpufferzeit eines Vorgangs: GPi = SAZi – FAZi = SEZi . Anfangs. Kritische Vorgänge 3. da ein Zyklus negativer Länge existiert.h. Pufferzeiten aller Vorgänge Die MPM (Metra-Potential-Methode) MPM verwendet ein Vorgangsknotennetz. Jacob .07. Die Tripeloperation besagt. Desweiteren setzt MPM die Start-Start-Beziehung voraus. Dabei steht der Zeilenindex für die Ursprungsknoten und der Spaltenindex für die Zielknoten der Pfeile. Falls ein Wert in der Diagonale von links oben nach rechts unten kleiner als Null wird.. z./Max. um die ein Vorgang verschoben werden kann. 1.

Hat ein Pfeil die gleiche Orientierung wie S.s)-Schnittes in N. der den noch möglichen Fluß über diesen Weg ausweist und einen rückwärts gerichteten Pfeil.h. j > Rückwärtspfeil µ ( A. B) = ij <i . 3. A> ∑λ .Ver. dann heißt S flußvergrößernder (r. Erhöhe den Fluß genau um die noch ausstehende Maximalkapazität der Senke. Gas. Notation: V Knotenmenge (wie bei Graphen) E Kantenmenge (wie bei Graphen) λij Minimalkapazität von i nach j Maximalkapazität von i nach j κij N = <V. i = s j∈S ( i ) k∈P ( i ) 0. Maximalfluß-Minimalschnitt-Theorem: Die Stärke eines maximalen Flusses von r nach s in einem Netzwerk N mit Kapazitäten ist gleich der Kapazität eines minimalen (r. Wasser o. d.B)-Schnitts:  κ ij − ϕ ij falls < i. Generell gilt bei solchen Flüssen das Kirchhoffsche Gesetz: Die Summe aller an einem Knoten anliegenden Flüsse ist Null.s>. d. er weißt von r nach s. führe eine Flußvergrößerung durch.01 Das Gantt-Diagramm Hier werden alle Vorgänge der Zeitplanung als Balken über der Zeitachse dargestellt.λ. andernfalls Rückwärtspfeil.07. hat man den maximalen Fluß gefunden. Teilweg im Netz N. i = r  Flußbedingung: ∑ ϕ ij − ∑ ϕ ki =  − ω . j >∈C < A. s}  Falls ∈ij>0 für alle Pfeile <i.  ω. Puffer GPi werden gestrichelt gezeichnet. Differenz aus der größtmöglichen Flußmenge von A nach B und der kleinstmöglichen Rückflußmenge von B nach A. j > Vorwärtspfeil ∈ij :=  ϕ ij − λij falls < i.∞)): 2. 1.j> von S. Starte bei der Senke s und arbeite weiter in Richtung Quelle r. dann wird er Vorwärtspfeil genannt.h. durch ein Leitungsnetz gesucht sind. der die Differenz zum minimal möglichen Fluß darstellt. der nicht unbedingt die gleiche Orientierung aller Pfeile haben muß. Jacob . Bestimmung maximaler Flüsse nach Ford Fulkerson 1. Wenn die Senke markiert worden ist. Er beginnt bei Knoten r (Flußquelle) und endet bei Knoten k. kritische Vorgänge werden stark ausgezeichnet. i ∈ V \ {r . wenn der kostengünstigste Durchfluß von Öl.0 24. Inkrementversion des Verfahrens nach Ford Fulkerson Definition Inkrementnetzwerk: Enthält für eine Verbindung zwischen zwei Knoten einen hingerichteten Pfeil.E. Flüsse in Netzwerken Solche Flüsse treten beispielsweise auf. d. Kapazität eines (A. Dabei ändern sich nur Werte auf dem gefundenen Semiweg <r. wobei der Balken von FAZi bis FEZi reicht. Markiere alle Knoten von der Quelle ausgehend nach folgender Regel (Quelle markiere mit (+. wenn gilt: λij ≤ ϕ ij ≤ κij ϕ ij S Semiweg in N.k)-Semiweg für den Fluß ϕ. Wenn die Senke nicht mehr zu erhöhen ist. 16 / 16 © A. j >∈C < B .ä.κ> Netzwerk mit Kapazitäten ω Flußstärke zulässiger Fluß von i nach j. B > ∑κ − ij <i .h.

Erhöhe Kapazität. Alle Kosten nichtnegativ 3. Um eine zulässige Anfangslösung des Transportproblems zu finden. es enthält keine Paare entgegengesetzt gerichteter Pfeile.07. bis gewünschte Kapazität übertragen wird. bedient man sich des XSchemas. Jacob . Verfahre nach 1. sonst wäre die beste Lösung immer die 0. d. Inkrementnetzwerk Um zu überprüfen. Cij sind demnach die Kosten für den Transport einer ME durch den Pfeil <i. sollte man ein Inkrementnetzwerk anfertigen. Suche den kostenminimalen (kürzesten) Weg von der Quelle zur Senke anhand des LC AAlgorithmus. Solch ein Transportproblem kann anhand des Algorithmus von Busaker-Gowen gelöst werden. Das Transportproblem Als klassisches Transportproblem bezeichnet man jenes. wenn schon etwas über diesen Weg läuft (sonst wird er nicht eingezeichnet). N ist antisymmetrisch 2. 4. in der Waagerechten des Tableaus werden die produzierten Einheiten ai angetragen 17 / 17 © A.h. Sollte es in diesem Netzwerk einen Zyklus negativer Länge geben. Suche im Netzwerk einen Semiweg von der Quelle zur Senke mit freien Kapazitäten und den dazugehörigen Engpaß 2. 2. Vorgehen: 1. Suche neuen Semiweg und suche wiederum den Engpaß. 2 so lange. Breche ab. so erhält man das Zuordnungsproblem. Es sieht folgendermaßen aus: mit cij = Kosten für den Transport auf dem Weg i – j xij = transportierte Menge auf dem Weg i – j ai = produzierte Einheiten bj = verbrauchte Einheiten Setzt man im Transportproblem die produzierte Menge gleich der verbrauchten Menge. 1. so ist der gefundene Weg maximal. Reize den Engpaß aus und erhöhe den Durchsatz um die Kapazität des Engpasses 3.j>. d. so ist der aktuelle Weg noch nicht optimal. und der „Rückpfeil“ die negativen Kosten angibt. Alle Minimalkapazitäten sind gleich 0 Vorgehen: 1.01 Voraussetzung: Das Netzwerk N ist antisymmetrisch.h. Anfangsbedingungen: 1.Ver. ob man einen kostenminimalen Fluß erhalten hat. wenn kein Semiweg auffindbar. Führe eine Flußvergrößerung anhand der minimalen Maximalkapazität aller Flüsse des gefundenen Weges durch. welches keine Umladepunkte zu beachten hat und dessen transportierte Mengen nicht nach oben beschränkt sind. ω+≥0 ist in diesem Fall eine Konstante. Kostenminimale Flüsse nach Busacker/Gowen Im Gegensatz zu maximalen Flüssen muß bei dieser Variante auch der Kostenaspekt berücksichtigt werden. 3. Wenn zudem kein Weg mehr von der Quelle zur Senke existiert.0 24. wenn noch Kapazität frei ist (sonst wird er nicht eingezeichnet). in dem der „Hinpfeil“ die Kosten angibt.

Trage diese in die letzte Zeile bzw. 3. Auf dem Weg sind nur BV’s zulässig. vj auf 0 gesetzt werden. Das alte NBV nimmt den alten Wert der BV an. Trage an der Position (i.j) im X-Schema den Wert xij = ai ein. Zwecks Ermittlung einer zulässigen Anfangslösung wähle durch später erwähnte Verfahren ein Anfangspaar (i. Sorge mit fiktiven Variablen (=0) dafür. Suche das kleinste negative unter 2.h. man legt sie in einer ZF fest und versucht. Jetzt folgt die Bestimmung der Transportmengenänderung δ‘ des ausgewählten Elementes. 6. Spaltenminimum-Regel: Wähle die Zeile mit den geringsten Kosten und die Spalte mit dem kleinsten Index.j) im X-Schema den Wert xij = bj ein. Zeilenminimum-Regel: Wähle die Spalte mit den geringsten Kosten und die Zeile mit dem kleinsten Index. der Gesamtbedarf von einem Verbraucher wird von einem Lieferanten gedeckt. Ermittle die Nichtbasisvariablen mit ζ ij = cij − ui + v j und trage sie in das Tableau ein. so spricht man von kombinatorischer Optimierung. Beginnend mit der Addition werden abwechselnd zu den Elementen des Zickzackweges δ addiert und subtrahiert. ai > bj: xij = bj.01 und an der Senkrechten die verbrauchten Einheiten bj. Führe zunächst vj und ui ein. da dort nicht mit reelwertigen Gütermengen gearbeitet werden kann. Trage an der Position (i. Matrixminimum-Regel: Wähle die Zeile und die Spalte mit den geringsten Kosten. Sollte die Summe der benötigten Güter nicht gleich der der produzierten Güter sein. Jetzt unterscheide in folgende drei Fälle: 1. so kann in den „Mehrvariablen“ der Wert von ui bzw. eine optimale Ordnung zu bestimmen. Er hat entweder zwei Elemente oder gar keine in jeder Spalte und Zeile. Der neue ZF-Wert ergibt sich aus: F ( x ) = F ( x ) + δ ' ζ i ' j ' 7. ermittelte Element. In das Tableau trage nun die Kosten für den Transport ein.Ver. - Nachdem nun eine zulässige Anfangslösung mit einer der Regeln gefunden wurde. füge einen fiktiven Verbraucher oder Produzenten mit Kosten 0 und der entsprechenden Differenz an Produkten ein. d. fange in der linken oberen Ecke an und nutze nach Streichen wieder den linken oberen Index.h. wird neue NBV. daß gleiche Anzahl von Zeilen und Spalten herrscht. der bei der neuen BV beginnt und auch endet. Jenes Element. Spalte der Anfangslösung ein. welche die Dualvariablen zur Summe aller zu einem Punkt gelieferten und von einem Punkt verschickten Güter darstellt.j) aus dem Tableau aus. Jacob . 1. so ist die Lösung optimal. aus. ai = bj: Suche eine Vorgehensweise nach Fall 2. 18 / 18 © A. Zu ermitteln sind diese Variablen nach folgender Regel: ui + v j = cij (Diese Werte nur aus den BV’s ermitteln! Sollte es mehr Spalten als Zeilen oder umgekehrt geben. ai < bj: xij = ai.ai. Auf diesem Weg sei δ‘ das größte δ. Jenes Element werde zur neuen BV. die die Lösung annehmen kann. kann man anhand folgender Methode das Problem lösen: Die MODI-Methode (modifizierte Distributionsmethode) Schritte zur Lösung: 1. oder 3. beginnend bei xi‘j‘=0. die unter der Anfangslösung ermittelt wurden.) 2. d. Berechne neue uj und vj Ganzzahlige und kombinatorische Optimierung Dieser Bereich der Optimierung tritt verhäuft in der Produktion und im Handel ein. die Gesamtproduktion wird zu einem Verbraucher transportiert. 5. eliminiere die j-te Zeile für die weiteren Verfahrensschritte und ersetze ai durch die Restproduktion ai – bj. 4. d. ( ) 3. Liegt eine Menge von möglichen Alternativen vor. eliminiere die i-te Zeile für die weiteren Verfahrensschritte und ersetze bj durch den Restbedarf bj .h. Jetzt nur noch die besagten Regeln zur Ermittlung des Index für einen Verfahrensschritt: Nordwestecken-Regel: Wähle den linken oberen Index. Sind alle Elemente positiv.07. so daß alle Elemente auf dem Weg positiv oder gleich Null sind. Suche nach einem geschlossenen Zickzackweg. es sind immer vollständige Güter. welches Null wird. 2. Letztendlich werden diese Permutationen bewertet.0 24.

gesperrt: xj =0 und sj = 0 (fixiert) . man veranschaulicht sich den Sachverhalt anhand einer Zeichnung.U. welcher das Minimum dieses Knotens ist. die den folgenden drei Bedingungen zu genüge kommt: I. Vom Namen der Methode bezieht sich „Branch“ auf das Verzweigen des Suchbaumes. Eine quadratische ganzzahlige Matrix heißt unimodular.h. Wenn man diese Relaxation löst und eine ganzzahlige Lösung erhält.0 24. Am besten. sukzessive Teilmengen vom zulässigen Bereich M zu finden. jeder Knoten im Baum bekommt zusätzlich noch eine Zustandsangabe. Eine darauf gefundene Lösung. wodurch man neue Teilmengen von M generiert. der durch sj beschrieben wird: sj = 1 (fixiert) . bricht das Verfahren von Gomory ab. dass sie die Ecke. „wegschneidet“. III.h. 1.h. Welche Elemente existieren in diesem Algorithmus? Jede Variable xj in diesem Verfahren befindet sich in einem Zustand. Sie heißt total unimodular.07. wenn die Determinante der Matrix den Wert 1 oder –1 annimmt. Zudem werden noch Schrankenfunktionen b eingeführt. d. d.gesetzt: xj =1 und . eine ganzzahlige Lösung.h. die Schrankenfunktion b(. b(s) ist eine untere Schranke für den optimalen ZF-Wert von P(s) II.01 Ganzzahlige Optimierungsprobleme mit total unimodularer Koeffizientenmatrix Begriffliches: Man spricht von einem relaxierten Problem oder einer Relaxation eines Optimierungsproblems. Suchbaumes. Jacob . man versucht. eines Wurzelbaumes. aber nicht ganzen Lösung führte. falls man keine andere Obergrenze ausmachen kann. Dieser Sachverhalt vereinfacht die nachfolgenden Verfahren ungemein.) verhält sich wie die Funktion F*(. so gibt b(s) den Zielfunktionswert für den entsprechenden Verktor x und damit die kleinste untere Schranke an. B sei der Zielfunktionswert der bisher besten gefundenen Lösung. Bei Einschränkung des zulässigen Bereichs „verbessert“ sich die untere Schranke.1 }. Demnach lässt sich folgendes schließen: Sind in einem linearen Optimierungsproblem die Matrix A total unimodular und der Vektor b ganzzahlig. Die Branch-and-Bound-Methode zur Lösung kombinatorischer Probleme Was hat man?: Anfangs liegt ein binäres Optimierungsproblem vor. Jedem Knoten s ist also ein Teilproblem P(s) des zu lösenden Optimierungsproblems (P) zugeordnet. „Bound“ weist auf die Verwendung unterer und oberer Schranken für den ZF-Wert hin. 0 oder 1 hat. d. Verfahren von Gomory zur Lösung eines rein ganzzahligen Optimierungsproblems Als Grundlage dieses Verfahrens dient ein rein-ganzzahliges Optimierungsproblem. wenn einige (oder alle) Nebenbedingungen des Problems weggelassen oder gelockert werden (z. es enthält n Vektoren bestehend aus {0. Jeder dieser Knoten besitzt einen zugehörigen optimalen ZF-Wert F*(s). mit deren Hilfe man „uninteressante“ Teilmengen von M eliminieren kann. den Möglichkeiten. welche zu einer reelwertigen. Anschaulich: 19 / 19 © A. Anfangs gilt B:=∞.Ver. Das Prinzip: Diese Methode macht sich das Prinzip der impliziten Enumeration zunutze. bringt u. wenn jede quadratische Teilmatrix einen Determinantenwert von –1. dessen Knoten gewissen Teilmengen von M entsprechen. Dies geschieht mit Hilfe eines sog. dann sind alle Basislösungen ganzzahlig. welche die Menge aller Knoten darstellt.h.B. das Standardproblem der linearen Optimierung stellt eine Relaxation der ganzzahligen Optimierungsaufgabe dar). Bei der Suche nach einer ganzzahligen optimalen Lösung kann diese Menge aus den gesuchten Variablen bestehen. d.). Andernfalls fügt man eine neue Nebenbedingung derart ein. in denen keine optimale Lösung des Problems liegt. Sind alle Variablen für den Knoten s fixiert.frei: xj =1 oder 0 und sj = -1 d. welche sich an der „neuen“ Ecke ansiedeln wird.

nicht jedoch über optimale Lösungen verfügt. d. um ein einfacheres Problem zu erhalten (Relaxation) oder bei einfachen Problemen eine Anfangslösung mit dem Simplexverfahren aufstellen. wenn sie mit P mindestens einen Punkt gemeinsam hat. noch nicht untersucht). 2b. In den Fällen 1 und 2a spricht man von einem ausgeloteten Problem. Bestimmung unterer Schranken am Anfang des Problems: Eine oder mehrere NB’s des Problems werden gelockert oder entfernt. welcher aktive Knoten im nächsten Schritt betrachtet wird: FIFO-Strategie (first in first out): Die Knoten werden als Schlange gespeichert. Diese kann mit einem heuristischen Verfahren näherungsweise bestimmt werden. II und III. mindestens eine Variable ist frei. Dann kann das ganzzahlige Problem durch die Lösung des relaxierten Problems auf Π gelöst werden. Eigenschaften: T • Eine Ungleichung α x≤β heißt gültig für P.0 24. • Eine Ungleichung heißt stützend. Folgende Fälle können dabei eintreten: 1. indem man eine oder mehrere freie Variablen fixiert. kleine obere Schranken. so stellt conv(M) ein konvexes Polytop dar. Alle Werte.h. in 2b von einem verzweigten Problem. Wenn M endlich ist. die die Zielfunktion auf conv(M) annehmen kann. Erhält man am Ende eines Verfahrensschrittes mehr als ein Element als aktiven Knoten. b(s) ≥ B: Knoten aus dem Suchbaum entfernen. in denen keine optimale Lösung von P liegt und folglich ausgesondert werden können. • S heißt echte Seite von P. Hat P die Dim d≤q. Dann erzeugt man Nachfolger. die dem Vektor s=(-1. der den zulässigen Bereich des relaxierten Problems so einschränkt. • conv(X) bezeichnet die konvexe Hülle einer Menge X. Jacob . benötigt man große untere bzw... Allgemein gilt folgende Beziehung für den Bereich M eines ganzzahligen Problems: M⊆conv(M)⊆P. Branch-and-Cut-Verfahren Idee: Finde einen Bereich Π. LIFO-Strategie (last in first out): Die Knoten werden als Keller gespeichert. sind ganzzahlig. Das Verfahren bricht ab. wenn sie für alle x ∈ P erfüllt ist.01 Versuche sukzessive Teilmengen von M durch binäre Unterscheidung zu finden. In jedem Schritt wir ein aktiver Knoten untersucht. Es ist sj=-1 für mindesten ein j. am Ende wird angefügt und am Kopf entnommen. Alle Variablen des Knotens sind fixiert (sj={0. so kann der Vorgängerknoten auch eliminiert werden. also ist x=s eindeutig festgelegt..h. Ist zudem der Wert des Vorgängers ebenso groß wie der von s. was zuletzt reinkommt. dessen Ecken eine Teilmenge von M bilden. so können alle von s verschiedenen Knoten eliminiert werden. b(s) < B: Folgende 2 Fälle werden nochmals unterschieden: 2a. also nicht überflüssig ist.. Seite ist sie durch S={x∈P| α x=β}.h. so hat jede Facette die Dim d-1. und ein aktiver Knoten ist (d. dass zum einen der zulässige Bereich M des ganzzahligen Problems vollständig in Π enthalten ist und zum anderen sämtliche (ausreichend viele) Ecken von Π ganzzahlige Lösungen repräsentieren.Ver. Setze B:=F(x) als neue beste optimale Lösung. 1.1}). LLB-Strategie (least lower bound): Es wird derjenige Knoten mit dem kleinsten Wert b(s) gewählt. 2.h. wird als erstes wieder herausgenommen. Zum Aussondern oder Auffinden der Lösungen dienen die Regeln I. Eine Facette ist die maximale Seitenfläche T bzgl.07.-1) entspricht (alle Variablen sind frei). die durch die Auslotungsregeln abgeschnitten werden können. d. Mit dieser Hilfestellung lässt sich folgendes Problem G vereinfacht durch G’ darstellen: 20 / 20 © A. sobald keine Knoten mehr aktiv sind. wenn S≠0 und S≠P ist. d. Mengeninklusion. Das Vorgehen ist wiefolgt: Das Verfahren: T Zu Beginn des Verfahrens besteht der Suchbaum nur aus der Wurzel. Eine gute Anfangsschranke ist also von sehr großem Nutzen. Hat der Vorgängerknoten nur diesen einen Nachfolger. so muß entschieden werden. da er nur über zulässige. Damit dies passiert. Effizienz: Die Effizienz dieses Verfahrens wird stark von der frühzeitigen Eliminierung von Knoten ab.

Ax ≤ b q  x ∈ Z+  ⇒  Min. sondern Seiten oder Facetten) durchführen. 1.d . dabei scharfe Schnitte (d.0 24.07. Jacob .  Min. cT x  u.Ver. c T x  u.01 Verfahren: Konstruktion von Polyedern Qi mit P⊃Qi⊃Π.d . falls keine Qi mehr erzeugt werden können: Branch&Bound.h.N . es werden nicht nur Ecken wie bei Gomory weggeschnitten.N . x ∈ conv( M ) 21 / 21 © A. falls optimale Ecke im Qi ganzzahlig: STOP.

Hier kann man sich sukzessive in Richtung abnehmender ZF-Wert im zulässigen Bereich durcharbeiten.d. wenn die Endprodukten nichtlinear von den Ausgangsproduktmengen abhängen. einen Sattelpunkt der Lagrange-Funktion L zu finden. Und aus der Konvexität folgt. Karush-Kuhn-Tucker-Bedingung Min. Dies kann in der Realität z. Nordwest-Determinanten ≥0 4.. Spezialfall der nicht-linearen Optimierung: konvexe Optimierungsprobleme Wiederum ein Art der Optimierungsprobleme bilden die konvexen Optimierungsprobleme mit konvexer ZF und konvexen NBs. s muß in Richtung abnehmender ZF-Wert sein. 3. Das Nullsetzen der partiellen Ableitungen der Lagrange-Funktion liefert die notwendige Bedingung für die Extremwerte. durch Materialbilanzgleichungen bei technischen Prozessen auftreten. längs keiner zulässigen Richtung in einer Umgebung von x kann der ZF-Wert verkleinert werden (stationärer Punkt).h. Ist x innerer Punkt von M. s muß eine zulässige Richtung sein. u ) ≤ L( x. D. er zeigt in die Richtung des stärksten Anstieges von F. also stumpfer Winkel zwischen s und g(x). macht man sich die LagrangeFunktion zunutze. Grundsätzlich versucht man. Ein Sattelpunkt ist gefunden. u ) ≤ L( x.0 24. Dies kann man mit folgenden Verfahren nachweisen: 1. ii.07. f i konvex  Zunächst gilt es zu beweisen. Eigenwerte sind ≥0 3. Optimalitätsbedingungen: T i. linear konvex Jetzt ist nur noch die zulässige Richtung aus Vorr. Abnahme des ZF-Wertes gleichwertig s g(x)<0. deren Zielfunktion und Nebenbedingungen nicht mehr linearen Funktionen entsprechen... Positiv definiete Hessematrix: Alle Determinanten der Hessematrix sind positiv 2. ohne M zu verlassen. Dazu müssen folgende Voraussetzungen erfüllt sein: 1. Lagrange-Funktion und Karush-Kuhn-Tucker-Bedingung Um Optimierungsprobleme mit NBs besser angehen zu können. bis man das Minimum erreicht hat. • Lokales Minimum: F(x**) • Zulässige Richtung: ein Vektor von x∈M heißt zulässige Richtung. u ) mit u ≥ 0 22 / 22 © A. f i ( x ) ≤ 0  F . d. s g(x)≥0 für alle s∈Z(x).d . es existiert zumindest eine ∈Umgebung >0 um den Punkt x**.N .h. wenn folgende Bedingung erfüllt ist: L( x. wenn man sich δ-weit in diese Richtung bewegen kann. dass ein lokales Minimum auch globales Minimum ist. 1. bei welchen globales und lokales Minimum zusammenfallen. m) Das konvexe Optimierungsproblem sieht so aus: u. der zulässige Bereich darf nicht verlassen werden. so ist natürlich jede Richtung zulässig. absolute Minima (Maxima) unterschieden werden muß. Jacob .. g(x) zeigt in Richtung des steilsten T Anstieges. Eine besondere Schwierigkeit besteht darin. dass das Optimierungsproblem überhaupt konvex ist.01 Nichtlineare Optimierung In diesem Kapitel handelt es sich um Optimierungsprobleme. 2 zu überprüfen.h.B. d. Dann kann man sich längs eines solchen Weges auf die Suche nach einer optimalen Lösung machen. • Gradient von F g(x**) in einem Punkt x**: Partielle Ableitung von F nach allen xi in einem Vektor. für die er ein Minimalpunkt darstellt.h.h. Dabei müssen die ZF und die NBs auf Konvexität überprüft werden. F ( x)   (i = 1. Definitionen: • globaler Minimalpunkt x*: F(x*)≤F(x) für alle x∈M • globales Minimum: F*:=minx∈M F(x) • lokaler Minimalpunkt : F(x**)≤F(x) für alle x∈M ∩ U∈(x**) . Es lässt sich grundsätzlich in zwei verschiedene Arten der Optimierungsaufgaben unterscheiden: n n Restringierte auf einer echten Teilmenge des R und Unrestringierte auf dem gesamten R . dass bei der Optimierung in globale bzw. Als Lagrange-Multiplikator dienen hier ui. d. 2.Ver.

u ) = x. Jacob . welches die T Optimalitätsbedingung s g(g*)≥0 bzw.fm stetig differenzierbar und konvex. Somit impliziert die Slaterbedingung.. Allerdings brechen diese Verfahren nicht nach einer endlichen Zahl von Schritten mit einer optimalen Lösung ab. 1. f1.. So erhält man bei diesen Verfahren nur ein Näherungslösung. u ≤ 0 δu Lx ( x. u ) = 0 x≥0 u≥0 Um die globale Minimalstelle x* einer zweimal stetig differenzierbaren. u ≥ 0 δx δL Lu ( x. wenn die folgenden Karush-Kuhn-Tucker-Bedingungen gelten: bzw. Anders und anschaulicher mit der Lagrange-Funktion formuliert: δL x.07. Slaterbedingung: Es gebe ein x’. Es ergibt sich eine Iterationsvorschrift der folgenden Art: T T xυ +1 := x υ − F ' ( xυ ) F ' ' ( xυ ) Lösungsverfahren für unrestringierte Optimierungsprobleme Ähnlich wie beim Simplexverfahren startet ein Lösungsverfahren der allgemeinen nichtlinearen 0 Optimierung mit einer Anfangsnäherungslösung x und konstruiert darauf basierend eine Folge von Näherungslösungen. Somit ergibt sich: Ist die Slaterbedingung erfüllt und sind die Funktionen F. wenn die Lagrange-Funktion einen Sattelpunkt mit u ≥ 0 besitzt. u ) = 0 u Lu ( x. Mit folgenden Verfahren werden Näherungslösungen angeboten: 23 / 23 © A. u ) = ( ) ( ) x Lx ( x ..0 24. benötigen wir die Konvexität des Optimierungsproblems sowie die Slaterbedingung.Ver. kann man sich mit dem Newton-Verfahren durch Iterationsschritte der optimalen Lösung annähern.. streng konvexen Funktion F zu ermitteln. so dass für alle nichtlinearen fi die Bedingung fi(x’)<0 erfüllt ist. so ist x genau dann optimale Lösung für das Optimierungsproblem. Die meisten Verfahren konvergieren gegen ein x*. dass der zulässige Bereich innere Punkte besitzt.01 Als Voraussetzung. um das Problem überhaupt lösen zu können. bei unrestringierten Problemen g(x*)=0 erfüllt.

rj u. 24 / 24 © A. ist ein optimaler Punkt gegeben) kann man mit Hilfe des euklidischen Abstandes berechnen. so fallen folgende Bestellkosten abhängig von der bestellten Menge an: B(uj) := K + cuj (K = fixer Kostenanteil und c = Kosten pro Stück) Somit sind die gesamten während dem Planungszeitraum anfallenden Kosten: ∑ [Kδ (u n j =1 j ) + cu j + hx j +1 mit δ = 1 bei Bestellung und δ = 0 bei keiner Bestellung. Da viele Vorgänge in dynamischen Prozessen stark mit dem Zufall behaftet sind. in dem die künstliche Dynamisierung darin besteht. so spricht man vom klassischen Gradientenverfahren. Hierzu als Beispiel das Rucksackproblem. Das Ergebnis muß sich mit höherem ν verkleinern. dass in jedem Optimierungsschritt darüber entschieden werden muß.07. Jacob .d. Die Zulässigkeit der Schrittweite kann man überprüfen. Beispiel Transportproblem: Folgende Faktoren spielen im weiteren in unser Problem mit hinein: uj : Zu beginn der Periode j gelieferte Menge rj : Nachfrage in Periode j xj : Lagerbestand unmittelbar vor Belieferung Lagerbilanzgleichung: xj+1 = xj + uj . auch künstliche Dynamisierung genannt. Wesentlich für die Optimierung ist jedoch nur die Einteilbarkeit in einzelne Stufen. Den Abstand zu einem anderen Punkt (evtl. welcher Gegenstand als nächstes in den Rucksack kommt. Dynamische & stochastische Modelle und Methoden Probleme der dynamischen Art ergeben sich in der Wirtschaft durchaus vielfach: Man denke an ein Lager. dass die Nachfrage befriedigt wird und die anfallenden Lagerkosten über einen längeren Planungszeitraum hinweg minimal werden.0 24.Ver. wobei wir etwa die Bestellmenge so festlegen wollen. ] Somit ergibt sich folgendes Lagerhaltungsproblem: Beispiel Rucksackproblem: In obigem Problem waren die „Stufen“ eines dynamischen Optimierungsproblems in Zeitabschnitte gegliedert.und Abgänge im Laufe der Zeit ändert.N. indem man die gewonnenen Werte in die ZFFunktion einsetzt und die Ergebnisse miteinander vergleicht. 1. was nicht notwendigerweise der Fall ist. dessen Bestand sich durch Zu. muß gelten: x1 = xn+1 = 0 Falls eine Bestellung eintritt. xj ≥ 0 Da eine Minimierung der Lagerkosten angestrebt wird und Material im Lager kosten verursacht.01 Setzt man statt sνTg(xν)<0 die Abstiegsrichtung auf sν := -gν. werden zur Beschreibung solcher Phänomene oft stochastische Größen verwendet.

in einem Netzwerk alle Knoten auf einer Höhe). dass wenn man in der ersten Periode nach dem Planungszeitraum von 0 Kosten ausgeht. d.. Suche zunächst nach Stufen. Suche nach einer Kostenfunktion. in welches das Problem unterteilt werden kann (z. Für j=(1|1|n) wird vj* auch Wertfunktion genannt. also den minimalen Kosten des Optimierungsproblems P1(x1).B. bei bekanntem vj+1* die Funktion vj* und damit jeweils für eine Vorperiode die Wertfunktion zu bestimmen. Durch eine gefällt Entscheidung verändert sich der Zustand des Systems. Netzwerk: f(x. Es ist auch ersichtlich..B. der Entscheidung in dieser Periode und der in der nachfolgenden Periode minimalen Kosten abhängig. Somit gelangt man zu v1*(x1*).. 2. um zu den minimalen Kosten zu gelangen. erreiche die nächste Stufe).. uj sind Entscheidungs.oder Steuervariablen. sind die minimalen Kosten von der zu Periodenanfang verfügbaren Menge. Bellmansche Funktionalgleichungsmethode Mit dieser Methode gelangt man durch sukzessive Auswertung der Bellmanschen Funktionalgleichung von j=n.u)=xj+1=uj. die bei Realisierung von xj entstehen. u j ) u j ∈U j ( x j ) { [ ]} Mit dieser Gleichung wird eine Beziehung zwischen zwei aufeinander folgenden Wertfunktionen vj* und vj+1* hergestellt... die die Kosten von einer Stufe zu einer anderen erfasst. auch Maximierung z.0 uj : cj : aj : A: xj : Gegenstand Wert des Gegenstandes Gewicht des Gegenstandes Nicht überschreitbares Gesamtgewicht des Rucksacks das für Ausrüstungsgegenstände noch verfügbare Restgewicht im Rucksack 24.. die den Beginn des Systems zu Periode j beschreibt. Wichtig beim Aufstellen eines dynamischen oder dynamisierten Optimierungsproblems: 1. 3. unter deren NB die Kosten zu minimieren sind.07. Eine Folge von Entscheidungen heißt Politik oder Steuerung. Jacob . - - Bellmansches Optimalitätsprinzip Dieses Prinzip beruht auf der Tatsache.B. Pj sei das Problem. u j ) + v * j +1 f j ( x j . . welche im Problem die Auswahlmöglichkeit beinhalten (z. Wie aus obiger Gleichung ersichtlich. Zu Beginn gilt x1 = xa.. des Gewinns unter Einhaltung einer bestimmten Anlageform sind denkbar. falls der Ausgangszustand des Problems fixiert ist. Somit ist der Anfangszustand einer Periode beschrieben durch eine Funktion der Vorgängerperiode. zum Anfang des Problems.B. beginnend „am Ende“ mit vn+1*(xn+1) := 0. Man sieht leicht. dass diese Verfahren Ähnlichkeit zur Suche nach optimalen Wegen in Netzwerken hat. welches es zu lösen gilt. Erstelle Bellmansche Funktionalgleichung Bellmansche Funktionalgleichung v * j ( x j ) = min g j ( x j . Suche nach einer Übergangsfunktion. 1.01 Problemstellung der allgemeinen dynamischen Optimierung Wir können aus obigen Beispielen ableiten: xj ist eine Zustandsvariable. zj*(xj) ist die optimale Einsatzmenge..uj) ist die Funktion. dass bei gegebener optimaler Politik (u1*. Suche nach möglichen Steuermöglichkeiten. Netzwerk: Welcher Weg wird von einem Knoten ausgehend gewählt). welche die Übergänge von einer Stufe in eine andere beschreibt (z... n-1.Ver. gj(xj. da man hier 25 / 25 © A.h.n unabhängig von der Entscheidung in den Perioden 1. Xj+1 beinhaltet als Zustandsbereich die möglichen Zustände von einer Periode j.h.j-1 ist. un*) eine Entscheidung für die Perioden j. allerdings rückwärts.. xj+1 = fj(xj.. also gleich dem Anfangszustand. die den Zustandsbereich beschreibt. Das Problem muß nicht notwendiger Weise ein Minimierungsproblem sein. die die entstandenen Kosten beschreibt und somit minimiert werden muß (oder den Gewinn beschreibt und maximiert werden muß). die es erlaubt. in dem alle möglichen Entscheidungen uj der Periode j liegen vj*(xj) seien hier die minimalen Kosten. . Uj(xj) ist der Steuerbereich. 4.. d.uj) ist die Kostenfunktion.

Um dies mit der Bellmanschen Funktionalgleichungsmethode zu lösen. wie schon vorangegangen erwähnt. Nun geht man auf j = n-1 und rechnet wiederum alle möglichen Gewinne für alle eingesetzten Faktoren aus. Dies macht man. dass man einen 1. Binäres Rucksackproblem: Hier geht es. Umkehrung des Rechenverlaufs: Das Bellmansche Verfahren kann in dem Fall zunächst mit der Vorwärtsrechnung eingesetzt werden. Dies erfolgt mit cj + v*j+1(xj-aj) für xj ≥ aj. da man anfangs noch den vollen Investitionsbetrag zur Verfügung hat. Nun folgt die Vorwärtsrechnung: Suche für x1 den optimalen Betrag. Geldbetrag so anlegen möchte. d. Im folgenden seien weitere wichtige Anwendungen und die damit verbundenen Änderungen an der Gleichung aufgelistet: 1. dass der gesamte Betrag möglichst gewinnbringend auf eine Menge von unterschiedlichen Anlagealternativen verteilt werden soll. und sich dann sukzessive zu den Kosten der Vorperioden durcharbeitet.Ver. Dies macht man für alle Alternativen. Jacob . Suche für z2 = (x1 – u1) den optimalen Betrag. ab wann im Rucksack genug Platz ist und ab wann ein weiterer vorangegangener Gegenstand auch noch hinzugefügt werden kann. Für diesen Punkt braucht man nicht mehr alle verschiedenen Einsatzmengen durchzurechnen. Anwendungsformen Die Bellmansche Funktionalgleichungsmethode kann auf viele Probleme der dynamischen Optimierung angewendet werden. dass für jeden Gegenstand geschaut wird. Zusammenfassend: Es wird zunächst eine Rückwärtsrechnung durchgeführt. bis die 0 erreicht ist. man beginnt bei n+1 und geht davon aus. dass in n+1 nichts optimiert werden muß. Nun kann man mit der Bellmanschen Funktionalgleichung den möglichen Gewinn der letzten Periode (vn) in Abhängigkeit von der eingesetzten Menge (xn) ausrechnen. bis keine Möglichkeit zum Investieren mehr gegeben ist. 24. falls einpacken oder 0. Vorwärtsrechnung: Setze x1* = xa. Realisiere. 1. um die Frage.01 Beispiel: Rückwärtsrechnung: Man weiß am Anfang des Optimierungsverfahrens. Gehe nun jede 1. Jener wird dann durch die optimale Investitionsmenge zj*(xj) beschrieben.0 nicht mehr vor hat. Ist man letztlich bei v1(x1) angelangt. zu investieren.h. Nun geht man rückwärts jede Entscheidung über eine Anlageform j durch und ermittelt mit Hilfe der Bellmanschen Funktionalgleichung den optimalen Gewinn vj in Abhängigkeit von der Ausgangssituation xj am Anfang der Periode j. ob ein bestimmter Gegenstand in den Rucksack eingepackte werden soll oder nicht. Für diese letzte Alternative ist natürlich nur x1 = n zu überprüfen. Der größere Wert wird in v*j(xj) übernommen. wenn in Periode j der Anfangszustand xj durch den Endzustand xj+1 und der Entscheidung 26 / 26 © A. Entscheidung über die Anlagealternative durch und ordne die entsprechenden Beträge aus der Rückwärtsrechnung den einzelnen Entscheidungen zu. so hat man den optimalen Inhalt des Rucksacks gefunden. Verfahre. falls nicht einpacken aj = Gewicht des Gegenstandes xj = Gewicht des Rucksacks am Anfang von j Das Prinzip beruht darauf. wenn vj* = 4 für xj = 2 das Maximum ist. verwendet man folgende speziell auf dieses Problem zugeschnittene Form: v * j ( x j ) = max c j u j + v * j +1 (x j − a j u j ) u j ∈U j ( x j ) { } mit cj = Wert des Gegenstandes uj = 1. d. Dies macht man bis j=1. Somit ist vj+1*(xn+1) = 0 als Ausgangsbasis gesichert. so wird zj*(xj) = 2 sein. da in n+1 schon alles angelegt ist.h. Dieser Wert wird dann mit v*j+1(xj+1) verglichen. der zu investieren ist. da dies hinter unserem Zeithorizont liegt (vj+1*(xn+1) = 0). also gleich dem anfangs verfügbaren Kapital. da man in der ersten Periode noch alles zur Verfügung hat. falls zwei Einheiten zur Verfügung stehen. 2. Ziehe dabei von x1 die optimal verwendete Menge ab. bis man bei j = 1 angekommen ist.07.

in der Fehlmengen auftreten können und (Q-S)/2 die durchschnittlichen Fehlmengen. S/r ist die Zeitspanne. Die Kosten betragen demnach: p (Q − S ) (Q − S ) (Q − S ) 2 =p 2 2r r Somit ergeben sich die Kosten pro Zeiteinheit (also mal 1/T): C (Q. Dann ist (Q-S)/r die Zeitspanne. S ) = rK hS 2 p(Q 2 − S 2 ) + rc + + 2Q 2Q Q h+ p p p + rc h+ p * Jetzt ist nur noch partiell nach Q und S abzuleiten. u j ) ]} In der anschließenden Rückwärtsrechnung bestimmt man dann eine optimale Politik und die zugehörige (optimale) Zustandsfolge. Mit Fehlmengenkosten zu rechnen kann durchaus günstiger sein als keine Fehlmengen in kauf zu nehmen. Folgende Größen lassen sich aus der einmalige Ableitung gleich null gesetzt berechnen: 2rK mit h = Lagerkosten pro Mengen.uj) gilt.und Zeiteinheit h Q* 2K * = Optimale Periodenlänge: T = r rh * rK hQ * = 2rhK + rc Minimale Kosten: C = * + rc + 2 Q Optimale Bestellmenge: Q* = Nehmen wir an.01 uj eindeutig gegeben ist. wann und wie viel bestellt werden soll.0 24. also Kosten produziert. Optimaler Bestellpunkt ist gleich 0. wenn Lager nicht lieferbereit. die entstehen.07. und man erhält: Q* = 2rK h S* = 2rK h p h+ p T* = Q* = r 2K rh h+ p p C * = 2rhK Außerdem noch die maximale Fehlmenge: Q − S * = −s* = 27 / 27 2rK P h h+ p © A. dass viele Größen wie die Lieferzeit oder der Verbrauch nicht genau vorhersagbar sind und somit als stochastische Größen angesehen werden müssen. Es sind genau die Kosten. 1. auf den das Lager bei der Lieferung wieder aufgefüllt wird Fehlmenge: tritt auf. wenn nichts mehr im Lager ist und trotzdem Nachfrage vorhanden ist. Folgende Begriffe sind im Zuge der Problematik zu definieren: Bestellpunkt: Derjenige Lagerbestand. Mit T als Periodenlänge und Q als Bestellmenge ergibt sich folgende Beziehung: T=Q/r. aber Nachfrage vorhanden EOQ-Modell (economic order quantity Diese Modell ist eines der einfachsten Lagerhaltungsmodellen und geht von einer konstanten Abgangsrate r aus. in der das Lager nichtnegativ ist. Somit ergeben sich die Kosten zu: SS S2 h =h 2 r 2r Diese Modell beinhaltet noch keine Fehlmengenkosten p. Zentrale Frage der Lagerhaltung ist. bei dessen Unterschreitung bestellt wird Bestellgrenze oder -niveau: Lagerbestand. also etwa xj = fj (xj+1. S sei das voll aufgefüllte Lage am Anfang.u j ) + v * j −1 [f j ( x j +1 . Die entsprechenden Summanden der ZF angepasst ergibt sich: v j ( x j +1 ) = * u j ∈U j ( x j +1) min {g ( x j j +1 . Lagerhaltung Ein Lager dient grundsätzlich der Pufferung von Gütern an verschiedenen Stellen im Produktions.Ver.und Vertriebsablauf. Schwierig ist hierbei. Durchschnittlich im Lager befinden sich während dieser Zeit S/2. Jacob .

der wesentlich weniger Rechenaufwand erfordert als die Auswertung obiger Funktionalgleichung. Somit werden auch die variablen Kosten wieder interessant für die Optimierung. da jene jetzt ebenfalls nicht mehr als konstant angesehen werden können. Das Verfahren ist relativ einfach: 1.h.B.. dass wir keine konstanten bestellfixen sowie variablen Kosten haben. usw. Die macht man. wenn ich in der ersten Periode nur für n-1 Perioden bestelle. 28 / 28 © A. Betrachten wir abschließend den Fall. wenn s* erreicht ist. Die minimalen Kosten erhält man aufgrund der Bellmanschen Funktional- ˆ gleichung: C j ( x j +1 ) * = 0 ≤ u j ≤ x j +1 + r j ˆ ˆ* min {Kδ (u j ) + hx j +1 + C *−1 ( x j +1 − u j + r j )} mit C 0 ( x1 ) := 0 j Wagner und Whitin haben einen Algorithmus zur Bestimmung der optimalen Bestellpolitik entwickelt. so muß λ früher bestellt werden. λ<T*. 1. dass wir eine Lieferzeit λ>0 einkalkulieren müssen.0 24. 3. da I0 =0) 2.. Somit erhält man die optimale Bestellzeitpunkt zu nT*-λ mit n = Periode.01 Jetzt kommt noch die Annahme hinzu. d. in welcher Periode aufgrund der Vorwärtsrechnung wie viel bestellt wird und ermittle so optimalen Bestellplan. sollte man tabellarisch vorgehen und sukzessive alle Bestellmöglichkeiten durchrechnen: Wenn ich in der 1. wenn man sich zu Anfang des Optimierungsproblems klar macht. da sie bei 0 Anfangs. Suche die jeweils geringsten Kosten pro Schritt und addiere sie zu den Gesamtkosten. Sonst bestimme lT*≤λ≤(l+1)T* und setze in s*+λr-lQ* ein.Ver. Schaue in der Rückwärtsrechnung. Nun braucht man sich nur noch in der Rückwärtsrechnung von der letzten Spalte zur ersten durcharbeiten und den minimalen Betrag der Spalte zu ermitteln. sondern diese z. Der optimale Bestellpunkt ist s*+λr für λr<Q*. saisonal bedingt schwanken. Setze am Anfang I*1 gleich den Bestellfixen Kosten und k*1=1 (logisch. Soll also die Bestellung eintreffen. welche Kosten als konstant betrachtet werden können und somit rausfallen. bis man bei n angekommen ist.07.und Endbestand und konstantem Verbrauch zwischen Anfang und Ende fix sind und somit nicht zu optimieren. Generell ist es von Vorteil. und welche bei der Optimierung berücksichtigt werden müssen. Um es optisch anschaulicher zu machen. Deterministisches dynamisches Modell Zu Begin der dynamischen Optimierung schon erwähntes Lagerhaltungsmodell sei an dieser Stelle nochmals aufgegriffen.Periode für alle Perioden bestelle. Jacob . 4. Gehe für jede Periode alle Möglichkeiten durch und ermittle deren Kosten: Bestellung in dieser Periode für diese Periode Bestellung in der letzten Periode für diese Periode und Lagerung Bestellung in der vorletzten Periode für diese Periode und Lagerung . Die variablen Bestellkosten sind in diesem Modell zu vernachlässigen.

sei o(∆t). die benötigt würde. Die Anzahl der in disjunkten Zeitintervallen auftretenden Ereignisse „Eintreffen eines Kunden“ seien unabhängige Zufallsgrößen. für die im Gleichgewichtszustand ρ<1 gilt (d.oder Auslastungsintensität ρ := λ/µ. Jacob . 1. Die Wahrscheinlichkeit. Aus den oben eingeführten Kennzahlen ergibt sich die Verkehrs.07. sondern auch stochastischen Prozessen unterliegen. 3. Die Wahrscheinlichkeit. dass mehr als ein Kunde in einem solchen Intervall eintrifft. sei o(∆t). um alle zum Zeitpunkt t wartenden Kunden abzuarbeiten. also abgefertigte Kunden pro Zeiteinheit ρ := λ/µ Auslastungsintensität. sei µ∆t+o(∆t) mit der Bedienungsrate µ>0. Zunächst ein paar Begriffe: Tn sei die Ankunftszeit des n-ten Kunden im Wartesystem Zn := Tn-Tn-1 sie die Zwischenankunftszeit des n-ten Kunden Sn sei die Bedienungs.h.0 24. Außerdem werden im weiteren die Zwischenankunftszeiten und die Bedienungszeit nicht nur statisch sein. Die Wahrscheinlichkeit. Das gleich gelte für die Ereignisse „Abfertigung eines Kunden“. Folgende drei Merkmale werden zur Beschreibung des Systems verwendet: 1. Zeit. nach dem der Kunde das Wartesystem wieder verlässt V(t) ist die virtuelle Wartezeit. die Anzahl der Bedienschalter. also ankommende Kunden pro Zeiteinheit µ Bedienrate.Ver. Das Wartesystem M|M|1 M|M|1 steht für: Exponentialverteilung in den Zwischenankunftszeit Z | Exponentialverteilung in der Bedienungszeit S | einen Bedienschalter. 29 / 29 © A. dass mehr als ein Kunde in einem solchen Intervall abgefertigt werden. dass ein Kunde in einem beliebigen Zeitintervall der Länge ∆t abgefertigt wird. Ankunftsrate ist kleiner als die Bedienrate).oder Servicezeit des n-ten Kunden q Wn sei die aktuelle Wartezeit des n-ten Kunden in der Schlange q W n := W n + Sn ist demnach die Gesamtzeit des n-ten Kunden im Wartesystem q Dn := Tn + W n + Sn ist der Zeitpunkt. sei λ∆t+o(∆t) mit der Ankunftsrate λ. Lediglich die Ausgestaltung kann unterschiedliche Formen annehmen. der Abfertigungsmodus (einzeln oder schubweise) und die Auswahlordnung (im weiteren nur first come first serve betrachtet). also ankommende pro abgefertigte Kunden Weitere Charakteristika von Warteschlangen sind die Größe des Warteraums. dass ein Kunde in einem beliebigen Zeitintervall der Länge ∆t eintrifft. Die Wahrscheinlichkeit. L(t) ist die Anzahl der zum Zeitpunkt t im Wartesystem befindlichen Kunden λ Ankunftsrate.01 Warteschlangen Die Grundlegende Systematik ist bei allen betrachteten Wartenschlangenproblemen die obige. 2.

also um α korrigiert: λeff = λα = λ(1-πr) = µ (1-π0). die auf ihre Abfertigung warten? πj = (1-δ)δ πj+1 =πj δ j j+1 Diese Beziehung ist genau dann zulässig. Sehr nützliche.Ver. dass Schlange schon voll) Daraus ergibt sich dann die effektive Ankunftsrate. dass kein Kunde im System ist. Für die Bedienungsrate wird sich kaum etwas ändern. Statt Z (Zwischenankunftszeit) gilt hier S (Bedienzeit des Kunden) und statt λ (Ankunftsrate) gilt µ (Bedienrate). wenn ein Kunde wieder geht. Die durchschnittliche Länge der Warteschlange L := E(d) = ∑jπj L = L – (1-π0) q Es kann nun auch passieren. j j-1 L = ∑j (1-δ)δ = (1-δ)δ ∑j δ = (1-δ)δ 1/(1-δ) = δ / (1-δ) = λ / (µ-λ) 2 Das ganze ist abgeleitet aus einer Reihenentwicklung. bei dem sich die Wahrscheinlichkeit. Jacob . da die vorhandene Schlange auch noch abzuarbeiten ist. im kompletten q System (W ) warten muß.07. die ein Kunde in der Schlange (W ) bzw. auf die q durchschnittliche Wartezeit zu berechnen. dass sich ein Kunde anstellt.h. lieber wieder zu gehen (λj =λaj). 1. dass sich ein ungeduldiger Kunde j bei einer gewissen Länge der Warteschlange nur zu einer gewissen Wahrscheinlichkeit aj anstellt. wenn konvergentes Verhalten vorliegt. dass man zu q q einer Wartezeit in der Schlange von W = L / λ bzw. Diese Formel lässt sich mit den zuvor abgeleiteten Beziehungen für L so kombinieren. mit zunehmender Länge der Warteschlange abnimmt. 30 / 30 © A. Wartezeit bin zu Abarbeitung von W = L / λ kommt. dass sich ein ankommender Kunde in die Schlange einreiht: α = 1-πr (also 1-W’keit. Aber die Rate der Warteschlange verändert sich ab dem Punkt. die vermehrt in praktischen Anwendungen benötigt werden.… Kunden im System ausrechnen soll und als Basis π0 gegeben hat. Wichtig sind die letzten beiden Beziehungen. Wartesystem mit veränderbarem Warteverhalten Das Übergangsverhalten solcher Wartesystem im Gleichgewicht kann in Digraphen wie folgendem festgehalten werden: q q In den Knoten steht der Zustand des Wartesystems. 1.0 24. dass j Kunden im Wartesystem. Diesen Erwartungswert kann man auch für die Anzahl der Kunden in der Warteschlange entwickeln. Es kommt jetzt noch ein Größe hinzu.01 Wartesystem mit unverändertem Warteverhalten Analog zum betrachteten Ankunftsprozess kann man den sogenannten Bedienprozess betrachten. L = λW . die man als „Erfassungsgrad der Kunden“ bezeichnen kann. Die obige Abbildung zeigt den Fall von einem Wartesystem. 2. Problem: Wie erhalten wir die durchschnittliche Anzahl von Kunden. π0 ist genau die Wahrscheinlichkeit. an den Pfeilen die möglichen Übergänge. die es erlaubt. q 2 2 Man kommt dann zu: L = δ / (1-δ) = λ / µ(µ-λ) Ein weiteres wichtiges Instrument ist die Littles Formel L = λW bzw. Somit ist bis zu dieser Rate und ab der Rate getrennt zu sehen. d. ab dem sich ein neuer Kunde entschließt. es ist die Wahrscheinlichkeit. wenn man die Wahrscheinlichkeit von 0. In diesem Fall könnten die stationären Wahrscheinlichkeiten über folgende Formel berechnet werden: πj = (1 − ρ ) ρ j 1 − ρ r +1 Erwartete Anzahl von Kunden d im Wartesystem mit πj stationäre Wahrscheinlichkeit.

Der einzigste Unterschied zu M|M|1 besteht darin. 31 / 31 © A.Ver. dass die Bedienrate variabel wird. ab s Kunden wird diese dann mit sµ abgearbeitet. Jacob . Abzuleiten ist alles aus dem Gleichgewichtsfall: ankommende Kunden – abgearbeitete Kunden = 0.01 Das Wartesystem M|M|s Nun sei die Möglichkeit von s parallelen identischen Abarbeitungsschaltern gegeben. d. 1.0 Die stationären W’keiten berechnen sich jetzt nach: π0 = (1 + ∑ δ ) j πj = δ π0 i -1 24.07. bis zu s Kunden bildet sich keine Warteschlange.h.

Sign up to vote on this title
UsefulNot useful