SlideShare a Scribd company logo
1 of 26
Wprowadzenie
do optymalizacji
wielokryterialnej.
Modelowanie i symulacja systemów
mgr inż. Leszek Siwik
Karol Cichosz
Tomasz Borek
Plan prezentacji
 Zarys problemu
 Podstawowe pojęcia
 Podstawowe problemy
 Wybrane metody
 Literatura
 Pytania i odpowiedzi
Zarys problemu
Zarys problemu
Optymalizacja wielokryterialna
Najbardziej naturalna metoda
wnioskowania
Polega na znalezieniu optymalnego
rozwiązania, które jest akceptowalne
z punktu widzenia każdego kryterium
Plan prezentacji
 Zarys problemu
 Podstawowe pojęcia
 Podstawowe problemy
 Wybrane metody
 Literatura
 Pytania i odpowiedzi
Podstawowe pojęcia
Optymalizacja wielokryterialna
próba znalezienia wektora zmiennych decyzyjnych:
x = [x1
,x2
,...,xk
],
 
który spełnia określone warunki:
gi
(x) ≥ 0 (i = 1... m),
hi
(x) = 0 (i = 1 ... p)
 
oraz optymalizuje wektor funkcyjny, którego elementy reprezentują
funkcje celu:
f(x) = (f1
(x),f2
(x),...,fk
(x))
Podstawowe pojęcia
Optymalizacja wielokryterialna
Podstawowe pojęcia
Optymalizacja wielokryterialna
Podstawowe pojęcia
Funkcje celu reprezentują matematyczny opis danego kryterium
oraz najczęściej pozostają w konflikcie miedzy sobą. (przykład
ceny i mocy obliczeniowej).
 
Optymalizacja polega na znalezieniu takiego rozwiązania, które
byłoby akceptowalne dla każdej funkcji celu. Jest pierwszym
krokiem w stronę znalezienia rozwiązania. Oczywiście
rozwiązanie byłoby idealne, gdyby było rozwiązaniem
najlepszym z punktu widzenia, każdej funkcji celu. Możliwe
rozwiązania zadania optymalizacyjnego klasyfikuje się jako
zdominowane
i niezdominowane (paretooptymalne – ang. Parento optimal).
Podstawowe pojęcia
Dla zadania maksymalizacji zestawu k funkcji celu:
 
f(x)=(f1
(x),f2
(x),...,fk
(x));
 
Rozwiązanie x jest zdominowane, jeśli istnieje dopuszczalne
rozwiązanie y nie gorsze od x, tzn. dla każdej funkcji celu fi
:
 
fi
(x)≤ fi
(y); (i=1,... k);
 
W przeciwnym wypadku x jest rozwiązaniem niezdominowanym
Podstawowe pojęcia
Dla zadania minimalizacji zestawu k funkcji celu
 
f(x)=(f1
(x),f2
(x),...,fk
(x))
 
rozwiązanie x jest zdominowane, jeśli istnieje dopuszczalne
rozwiązanie y nie gorsze od x, tzn. dla każdej funkcji celu fi:
 
fi
(y)≤ fi
(x) (i=1,... k)
 
W przeciwnym wypadku x jest rozwiązaniem niezdominowanym
Podstawowe pojęcia
Algorytm ewolucyjny
Plan prezentacji
 Zarys problemu
 Podstawowe pojęcia
 Podstawowe problemy
 Wybrane metody
 Literatura
 Pytania i odpowiedzi
Podstawowe problemy
 dopasowania wartości skalarnych do
poszczególnych kryteriów
i obudowanie ich regułami matematycznymi
 zachowania różnorodności rozwiązań przy
dobieraniu klasyfikacji rozwiązań jako
zdominowanych i niezdominowanych
 utraty rozwiązań niezdominowanych
 przechowywania i egzystencji constraintów
Plan prezentacji
 Zarys problemu
 Podstawowe pojęcia
 Podstawowe problemy
 Wybrane metody
 Literatura
 Pytania i odpowiedzi
Wybrane metody
Metoda ważonych celów:
 gdzie:
k – ilość funkcji;
x – wektor rozwiązań;
wi
– wagi takie, że:
oraz
∑=
=
k
i
ii xfwxF
1
)()(
]1,0[∈iw ∑=
=
k
i
iw
1
1
Wybrane metody
Metoda VEGA
Użyte oznaczenia:
t – numer pokolenia
Pt – populacja w t-tym pokoleniu
P ′ – populacja tymczasowa
k – ilość kryteriów
Algorytm
Parametry wejściowe: N – rozmiar populacji
T – maksymalna ilość pokoleń
pc – prawdopodobieństwo krzyżowania
pm –prawdopodobieństwo mutacji
Wynik: A – zbiór rozwiązań niezdominowanych
Wybrane metody
Krok 1: Inicjalizacja (wygenerowanie populacji początkowej)
Niech P0 = Ø oraz t = 0. Dla i=1, ..., N wykonaj:
Wylosuj osobnika i.
Dodaj osobnika i do zbioru P0.
Krok 2: Wyznaczenie dopasowania i selekcja:
Pt ′= Ø. Dla i = 1, ..., k wykonaj:
Dla każdego osobnika oblicz jego dopasowanie w oparciu o funkcję celu fi
Dla j=1, ..., N/k wybierz osobnika i z Pt i dodaj go do P ′.
Krok 3: Rekombinacja:
Niech P ′′= Ø. Dla i=1, ..., N/2 wykonaj
Wybierz dwa osobniki ′ i usuń je z P ′.
Skrzyżuj osobniki: i j; wynik: osobniki k i l.
Dodaj k, l do P ′′ z prawdopodobieństwem pc (w przeciwnym wypadku do P ′′ dodaj
osobniki i, j).
Wybrane metody
Krok 4: Mutacja:
Niech P′′′ = Ø Dla każdego osobnika wykonaj:
Zmutuj osobnika i z prawdopodobieństwem pm. Wynik: osobnik j.
Dodaj osobnika j do zbioru P ′′′.
Krok 5: Zakończenie:
Niech Pt+1 = P ′′′ i t=t+1. Jeżeli t ≥T to zakończ
(Wynik: A = rozwiązanie niezdominowane z populacji Pt), w przeciwnym wypadku
powrót do roku 2.
Wybrane metody
Metoda SPEA
Użyte oznaczenia:
t – numer pokolenia
Pt – populacja w t-tym pokoleniu
Pt – zbiór zewnętrzny
P′ – tymczasowy zbiór zewnętrzny
P ′ – populacja tymczasowa
Algorytm
Parametry wejściowe: N – rozmiar populacji
Nm – maksymalny rozmiar zbioru zewnętrznego
T – maksymalna ilość pokoleń
pc – prawdopodobieństwo krzyżowania
pm – prawdopodobieństwo mutacji
Wynik: A – zbiór rozwiązań niezdominowanych
Wybrane metody
Krok 1: Inicjalizacja:
Wygeneruj populację początkową P0 (patrz krok pierwszy algorytmu VEGA)
oraz pusty zbiór zewnętrzny P0 = Ø.
Niech t = 0.
Krok 2: Uzupełnienie zbioru zewnętrznego.
Niech P′ = Pt.
Skopiuj do P′ osobniki z populacji Pt, niezdominowane przez inne osobniki z
populacji Pt. Usuń z P′ osobniki zdominowane przez inne osobniki z P′.
Zredukuj liczność zbioru P′ do N przez clustering; wynik: Pt+1.
Krok 3: Wyznaczenie dopasowania:
Oblicz wartość dopasowania F osobników w Pt i Pt przy użyciu algorytmu
opisanego dalej.
Wybrane metody
Krok 4: Selekcja:
Niech P ′= Ø. Dla i=1, ..., k wykonaj:
Wybierz losowo dwa osobniki Pt .
Jeżeli F(i)<F(j) to P ′= P ′ +{i}, w przeciwnym wypadku P ′= P ′ +{j}
(wartość przystosowania jest tu minimalizowana).
Krok 5: Rekombinacja: patrz krok 3 algorytmu VEGA (wynik: P ′′).
Krok 6: Mutacja: patrz krok 4 algorytmu VEGA (wynik: P ′′′).
Krok 7: Zakończenie:
Niech Pt+1 = P ′′′ i t = t+1. Jeżeli t ≥ T to zakończ
(Wynik: A = rozwiązanie niezdominowane z populacji Pt), w przeciwnym
wypadku powrót do kroku 2.
Plan prezentacji
 Zarys problemu
 Podstawowe pojęcia
 Podstawowe problemy
 Wybrane metody
 Literatura
 Pytania i odpowiedzi
Literatura
 Kalyanmoy Deb, Lother Thiele, Marco Laumanns, Eckart Zitzler – “Scalable
Multi-Objective Optimization Test Probems” 2002
 Eckart Zitzler – “Evolutionary Alghorithms for Multiobjective Optimalization”
2001
 Kalyanmoy Deb, Lother Thiele, Marco Laumanns, Eckart Zitzler, Emo Welzl –
“Running time analysis of a multi-objective evolutionary algorithm on a simple
discrete optimalization problem” 2002
 Eckart Zitzler – “Evolutionary algorithms for multiobjective optimalization”
2002
 Eckart Zitzler, Marco Laumanns, Stefan Bleuler – “A Tutorial on Evolutionary
Multiobjective Optimalization” 2003
 Halina Kwaśnicka – “Ewolucyjna optymalizacja wielokryterialna” 2000
 Katedra Automatyki AGH – „Optymalizacja wielokryterialna” 1999
 Carlos A. Coello – „An Updated Survey of GA-Based Multiobjective
Optimalization Techniques”
 http://sound.eti.pg.gda.pl/rekonstrukcja/algorytmy_genetyczne.html
 http://www.tik.ee.ethz.ch/~zitzler/
Plan prezentacji
 Zarys problemu
 Podstawowe pojęcia
 Podstawowe problemy
 Wybrane metody
 Literatura
 Pytania i odpowiedzi
Dziękujemy !!

More Related Content

More from Tomek Borek

Noc informatyka - co ja wiem o testowaniu
Noc informatyka - co ja wiem  o testowaniuNoc informatyka - co ja wiem  o testowaniu
Noc informatyka - co ja wiem o testowaniuTomek Borek
 
Teaching PostgreSQL to new people
Teaching PostgreSQL to new peopleTeaching PostgreSQL to new people
Teaching PostgreSQL to new peopleTomek Borek
 
Nowoczesne architektury
Nowoczesne architekturyNowoczesne architektury
Nowoczesne architekturyTomek Borek
 
Java tuning on GNU/Linux for busy dev
Java tuning on GNU/Linux for busy devJava tuning on GNU/Linux for busy dev
Java tuning on GNU/Linux for busy devTomek Borek
 
Jvm tuning in a rush! - Lviv JUG
Jvm tuning in a rush! - Lviv JUGJvm tuning in a rush! - Lviv JUG
Jvm tuning in a rush! - Lviv JUGTomek Borek
 
Java Memory Consistency Model - concepts and context
Java Memory Consistency Model - concepts and contextJava Memory Consistency Model - concepts and context
Java Memory Consistency Model - concepts and contextTomek Borek
 
Seeing through the smoke
Seeing through the smokeSeeing through the smoke
Seeing through the smokeTomek Borek
 
AR drone - Polish JUG short demo
AR drone - Polish JUG short demoAR drone - Polish JUG short demo
AR drone - Polish JUG short demoTomek Borek
 
Testing SAAS, how to go about it?
Testing SAAS, how to go about it?Testing SAAS, how to go about it?
Testing SAAS, how to go about it?Tomek Borek
 
Spróbujmy szczęścia bo zaciskanie pięści nie działa
Spróbujmy szczęścia bo zaciskanie pięści nie działaSpróbujmy szczęścia bo zaciskanie pięści nie działa
Spróbujmy szczęścia bo zaciskanie pięści nie działaTomek Borek
 
Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...
Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...
Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...Tomek Borek
 
Lightning talk on Java Memory Consistency Model Java Day Kiev 2014
Lightning talk on Java Memory Consistency Model Java Day Kiev 2014Lightning talk on Java Memory Consistency Model Java Day Kiev 2014
Lightning talk on Java Memory Consistency Model Java Day Kiev 2014Tomek Borek
 
Few words about happiness (Polish talk) / O szczęściu słów kilka
Few words about happiness (Polish talk) / O szczęściu słów kilkaFew words about happiness (Polish talk) / O szczęściu słów kilka
Few words about happiness (Polish talk) / O szczęściu słów kilkaTomek Borek
 
Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"
Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"
Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"Tomek Borek
 
It's not always the application's fault
It's not always the application's faultIt's not always the application's fault
It's not always the application's faultTomek Borek
 
To nie zawsze wina aplikacji!
To nie zawsze wina aplikacji!To nie zawsze wina aplikacji!
To nie zawsze wina aplikacji!Tomek Borek
 
Git nie dla początkujących
Git nie dla początkującychGit nie dla początkujących
Git nie dla początkującychTomek Borek
 
Architecture visualizers - tools usability study
Architecture visualizers - tools usability studyArchitecture visualizers - tools usability study
Architecture visualizers - tools usability studyTomek Borek
 
Meta on HCI - keyword analysis and trends
Meta on HCI - keyword analysis and trendsMeta on HCI - keyword analysis and trends
Meta on HCI - keyword analysis and trendsTomek Borek
 
"Narco" emotions - description of study on whether Twitter can be used to gle...
"Narco" emotions - description of study on whether Twitter can be used to gle..."Narco" emotions - description of study on whether Twitter can be used to gle...
"Narco" emotions - description of study on whether Twitter can be used to gle...Tomek Borek
 

More from Tomek Borek (20)

Noc informatyka - co ja wiem o testowaniu
Noc informatyka - co ja wiem  o testowaniuNoc informatyka - co ja wiem  o testowaniu
Noc informatyka - co ja wiem o testowaniu
 
Teaching PostgreSQL to new people
Teaching PostgreSQL to new peopleTeaching PostgreSQL to new people
Teaching PostgreSQL to new people
 
Nowoczesne architektury
Nowoczesne architekturyNowoczesne architektury
Nowoczesne architektury
 
Java tuning on GNU/Linux for busy dev
Java tuning on GNU/Linux for busy devJava tuning on GNU/Linux for busy dev
Java tuning on GNU/Linux for busy dev
 
Jvm tuning in a rush! - Lviv JUG
Jvm tuning in a rush! - Lviv JUGJvm tuning in a rush! - Lviv JUG
Jvm tuning in a rush! - Lviv JUG
 
Java Memory Consistency Model - concepts and context
Java Memory Consistency Model - concepts and contextJava Memory Consistency Model - concepts and context
Java Memory Consistency Model - concepts and context
 
Seeing through the smoke
Seeing through the smokeSeeing through the smoke
Seeing through the smoke
 
AR drone - Polish JUG short demo
AR drone - Polish JUG short demoAR drone - Polish JUG short demo
AR drone - Polish JUG short demo
 
Testing SAAS, how to go about it?
Testing SAAS, how to go about it?Testing SAAS, how to go about it?
Testing SAAS, how to go about it?
 
Spróbujmy szczęścia bo zaciskanie pięści nie działa
Spróbujmy szczęścia bo zaciskanie pięści nie działaSpróbujmy szczęścia bo zaciskanie pięści nie działa
Spróbujmy szczęścia bo zaciskanie pięści nie działa
 
Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...
Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...
Łukasz Romaszewski on Internet of Things Raspberry Pi and Java Embedded JavaC...
 
Lightning talk on Java Memory Consistency Model Java Day Kiev 2014
Lightning talk on Java Memory Consistency Model Java Day Kiev 2014Lightning talk on Java Memory Consistency Model Java Day Kiev 2014
Lightning talk on Java Memory Consistency Model Java Day Kiev 2014
 
Few words about happiness (Polish talk) / O szczęściu słów kilka
Few words about happiness (Polish talk) / O szczęściu słów kilkaFew words about happiness (Polish talk) / O szczęściu słów kilka
Few words about happiness (Polish talk) / O szczęściu słów kilka
 
Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"
Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"
Jak użytecznie, prawdziwie i solidnie odpowiedzieć na pytanie "jak było"
 
It's not always the application's fault
It's not always the application's faultIt's not always the application's fault
It's not always the application's fault
 
To nie zawsze wina aplikacji!
To nie zawsze wina aplikacji!To nie zawsze wina aplikacji!
To nie zawsze wina aplikacji!
 
Git nie dla początkujących
Git nie dla początkującychGit nie dla początkujących
Git nie dla początkujących
 
Architecture visualizers - tools usability study
Architecture visualizers - tools usability studyArchitecture visualizers - tools usability study
Architecture visualizers - tools usability study
 
Meta on HCI - keyword analysis and trends
Meta on HCI - keyword analysis and trendsMeta on HCI - keyword analysis and trends
Meta on HCI - keyword analysis and trends
 
"Narco" emotions - description of study on whether Twitter can be used to gle...
"Narco" emotions - description of study on whether Twitter can be used to gle..."Narco" emotions - description of study on whether Twitter can be used to gle...
"Narco" emotions - description of study on whether Twitter can be used to gle...
 

Wprowadzenie do optymalizacji wielokryterialnej / Intro to multicriteria optimization

  • 1. Wprowadzenie do optymalizacji wielokryterialnej. Modelowanie i symulacja systemów mgr inż. Leszek Siwik Karol Cichosz Tomasz Borek
  • 2. Plan prezentacji  Zarys problemu  Podstawowe pojęcia  Podstawowe problemy  Wybrane metody  Literatura  Pytania i odpowiedzi
  • 4. Zarys problemu Optymalizacja wielokryterialna Najbardziej naturalna metoda wnioskowania Polega na znalezieniu optymalnego rozwiązania, które jest akceptowalne z punktu widzenia każdego kryterium
  • 5. Plan prezentacji  Zarys problemu  Podstawowe pojęcia  Podstawowe problemy  Wybrane metody  Literatura  Pytania i odpowiedzi
  • 6. Podstawowe pojęcia Optymalizacja wielokryterialna próba znalezienia wektora zmiennych decyzyjnych: x = [x1 ,x2 ,...,xk ],   który spełnia określone warunki: gi (x) ≥ 0 (i = 1... m), hi (x) = 0 (i = 1 ... p)   oraz optymalizuje wektor funkcyjny, którego elementy reprezentują funkcje celu: f(x) = (f1 (x),f2 (x),...,fk (x))
  • 9. Podstawowe pojęcia Funkcje celu reprezentują matematyczny opis danego kryterium oraz najczęściej pozostają w konflikcie miedzy sobą. (przykład ceny i mocy obliczeniowej).   Optymalizacja polega na znalezieniu takiego rozwiązania, które byłoby akceptowalne dla każdej funkcji celu. Jest pierwszym krokiem w stronę znalezienia rozwiązania. Oczywiście rozwiązanie byłoby idealne, gdyby było rozwiązaniem najlepszym z punktu widzenia, każdej funkcji celu. Możliwe rozwiązania zadania optymalizacyjnego klasyfikuje się jako zdominowane i niezdominowane (paretooptymalne – ang. Parento optimal).
  • 10. Podstawowe pojęcia Dla zadania maksymalizacji zestawu k funkcji celu:   f(x)=(f1 (x),f2 (x),...,fk (x));   Rozwiązanie x jest zdominowane, jeśli istnieje dopuszczalne rozwiązanie y nie gorsze od x, tzn. dla każdej funkcji celu fi :   fi (x)≤ fi (y); (i=1,... k);   W przeciwnym wypadku x jest rozwiązaniem niezdominowanym
  • 11. Podstawowe pojęcia Dla zadania minimalizacji zestawu k funkcji celu   f(x)=(f1 (x),f2 (x),...,fk (x))   rozwiązanie x jest zdominowane, jeśli istnieje dopuszczalne rozwiązanie y nie gorsze od x, tzn. dla każdej funkcji celu fi:   fi (y)≤ fi (x) (i=1,... k)   W przeciwnym wypadku x jest rozwiązaniem niezdominowanym
  • 13. Plan prezentacji  Zarys problemu  Podstawowe pojęcia  Podstawowe problemy  Wybrane metody  Literatura  Pytania i odpowiedzi
  • 14. Podstawowe problemy  dopasowania wartości skalarnych do poszczególnych kryteriów i obudowanie ich regułami matematycznymi  zachowania różnorodności rozwiązań przy dobieraniu klasyfikacji rozwiązań jako zdominowanych i niezdominowanych  utraty rozwiązań niezdominowanych  przechowywania i egzystencji constraintów
  • 15. Plan prezentacji  Zarys problemu  Podstawowe pojęcia  Podstawowe problemy  Wybrane metody  Literatura  Pytania i odpowiedzi
  • 16. Wybrane metody Metoda ważonych celów:  gdzie: k – ilość funkcji; x – wektor rozwiązań; wi – wagi takie, że: oraz ∑= = k i ii xfwxF 1 )()( ]1,0[∈iw ∑= = k i iw 1 1
  • 17. Wybrane metody Metoda VEGA Użyte oznaczenia: t – numer pokolenia Pt – populacja w t-tym pokoleniu P ′ – populacja tymczasowa k – ilość kryteriów Algorytm Parametry wejściowe: N – rozmiar populacji T – maksymalna ilość pokoleń pc – prawdopodobieństwo krzyżowania pm –prawdopodobieństwo mutacji Wynik: A – zbiór rozwiązań niezdominowanych
  • 18. Wybrane metody Krok 1: Inicjalizacja (wygenerowanie populacji początkowej) Niech P0 = Ø oraz t = 0. Dla i=1, ..., N wykonaj: Wylosuj osobnika i. Dodaj osobnika i do zbioru P0. Krok 2: Wyznaczenie dopasowania i selekcja: Pt ′= Ø. Dla i = 1, ..., k wykonaj: Dla każdego osobnika oblicz jego dopasowanie w oparciu o funkcję celu fi Dla j=1, ..., N/k wybierz osobnika i z Pt i dodaj go do P ′. Krok 3: Rekombinacja: Niech P ′′= Ø. Dla i=1, ..., N/2 wykonaj Wybierz dwa osobniki ′ i usuń je z P ′. Skrzyżuj osobniki: i j; wynik: osobniki k i l. Dodaj k, l do P ′′ z prawdopodobieństwem pc (w przeciwnym wypadku do P ′′ dodaj osobniki i, j).
  • 19. Wybrane metody Krok 4: Mutacja: Niech P′′′ = Ø Dla każdego osobnika wykonaj: Zmutuj osobnika i z prawdopodobieństwem pm. Wynik: osobnik j. Dodaj osobnika j do zbioru P ′′′. Krok 5: Zakończenie: Niech Pt+1 = P ′′′ i t=t+1. Jeżeli t ≥T to zakończ (Wynik: A = rozwiązanie niezdominowane z populacji Pt), w przeciwnym wypadku powrót do roku 2.
  • 20. Wybrane metody Metoda SPEA Użyte oznaczenia: t – numer pokolenia Pt – populacja w t-tym pokoleniu Pt – zbiór zewnętrzny P′ – tymczasowy zbiór zewnętrzny P ′ – populacja tymczasowa Algorytm Parametry wejściowe: N – rozmiar populacji Nm – maksymalny rozmiar zbioru zewnętrznego T – maksymalna ilość pokoleń pc – prawdopodobieństwo krzyżowania pm – prawdopodobieństwo mutacji Wynik: A – zbiór rozwiązań niezdominowanych
  • 21. Wybrane metody Krok 1: Inicjalizacja: Wygeneruj populację początkową P0 (patrz krok pierwszy algorytmu VEGA) oraz pusty zbiór zewnętrzny P0 = Ø. Niech t = 0. Krok 2: Uzupełnienie zbioru zewnętrznego. Niech P′ = Pt. Skopiuj do P′ osobniki z populacji Pt, niezdominowane przez inne osobniki z populacji Pt. Usuń z P′ osobniki zdominowane przez inne osobniki z P′. Zredukuj liczność zbioru P′ do N przez clustering; wynik: Pt+1. Krok 3: Wyznaczenie dopasowania: Oblicz wartość dopasowania F osobników w Pt i Pt przy użyciu algorytmu opisanego dalej.
  • 22. Wybrane metody Krok 4: Selekcja: Niech P ′= Ø. Dla i=1, ..., k wykonaj: Wybierz losowo dwa osobniki Pt . Jeżeli F(i)<F(j) to P ′= P ′ +{i}, w przeciwnym wypadku P ′= P ′ +{j} (wartość przystosowania jest tu minimalizowana). Krok 5: Rekombinacja: patrz krok 3 algorytmu VEGA (wynik: P ′′). Krok 6: Mutacja: patrz krok 4 algorytmu VEGA (wynik: P ′′′). Krok 7: Zakończenie: Niech Pt+1 = P ′′′ i t = t+1. Jeżeli t ≥ T to zakończ (Wynik: A = rozwiązanie niezdominowane z populacji Pt), w przeciwnym wypadku powrót do kroku 2.
  • 23. Plan prezentacji  Zarys problemu  Podstawowe pojęcia  Podstawowe problemy  Wybrane metody  Literatura  Pytania i odpowiedzi
  • 24. Literatura  Kalyanmoy Deb, Lother Thiele, Marco Laumanns, Eckart Zitzler – “Scalable Multi-Objective Optimization Test Probems” 2002  Eckart Zitzler – “Evolutionary Alghorithms for Multiobjective Optimalization” 2001  Kalyanmoy Deb, Lother Thiele, Marco Laumanns, Eckart Zitzler, Emo Welzl – “Running time analysis of a multi-objective evolutionary algorithm on a simple discrete optimalization problem” 2002  Eckart Zitzler – “Evolutionary algorithms for multiobjective optimalization” 2002  Eckart Zitzler, Marco Laumanns, Stefan Bleuler – “A Tutorial on Evolutionary Multiobjective Optimalization” 2003  Halina Kwaśnicka – “Ewolucyjna optymalizacja wielokryterialna” 2000  Katedra Automatyki AGH – „Optymalizacja wielokryterialna” 1999  Carlos A. Coello – „An Updated Survey of GA-Based Multiobjective Optimalization Techniques”  http://sound.eti.pg.gda.pl/rekonstrukcja/algorytmy_genetyczne.html  http://www.tik.ee.ethz.ch/~zitzler/
  • 25. Plan prezentacji  Zarys problemu  Podstawowe pojęcia  Podstawowe problemy  Wybrane metody  Literatura  Pytania i odpowiedzi