• Save
Otimização com Incertezas
Upcoming SlideShare
Loading in...5
×
 

Otimização com Incertezas

on

  • 1,016 views

Apresentação sobre Otimização com Incertezas feita no dia 19/06/2009 para alunos da disciplina IA707 (Computação Evolutiva) de pós-graduação da FEEC/Unicamp

Apresentação sobre Otimização com Incertezas feita no dia 19/06/2009 para alunos da disciplina IA707 (Computação Evolutiva) de pós-graduação da FEEC/Unicamp

Statistics

Views

Total Views
1,016
Views on SlideShare
1,012
Embed Views
4

Actions

Likes
0
Downloads
0
Comments
0

2 Embeds 4

http://www.linkedin.com 3
http://www.slideshare.net 1

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Otimização com Incertezas Otimização com Incertezas Presentation Transcript

    • Otimização em Ambientes com Incertezas
      - Perspectivas em computação evolutiva -
      Fabrício Olivetti de França
      IA707 – Campinas/SP – junho de 2009
    • Conteúdo
      Prelúdio:
      O complicado problema de otimizar
      Parte 1: CONCEITOS
      O que é um problema com incerteza?
      Em que isso me afeta?
      Como se dividem?
      Aplicações
      Parte 2: OTIMIZANDO
      Do que preciso?
      O que a literatura mostra
      Parte 3: CONCLUINDO
      Tendências
      Referências
      2
    • Conteúdo
      Prelúdio:
      O complicado problema de otimizar
      Parte 1: CONCEITOS
      O que é um problema com incerteza?
      Em que isso me afeta?
      Como se dividem?
      Aplicações
      Parte 2: OTIMIZANDO
      Do que preciso?
      O que a literatura mostra
      Parte 3: CONCLUINDO
      Tendências
      Referências
      3
    • 4
      Vamos começar com pizza!
      Um empresário resolveu abrir uma franquia da pizzaria HoTPizza onde era possível obter lucro na venda de pizzas e de bebidas.
      Estudando a pizza de pepperoni especificamente ele pôde notar:
      • quanto mais pepperoni na pizza, mais bebidas eram consumidas
      • se a pizza ficasse muito ardida, as vendas caiam
    • 5
      Tudo é simples
      1
      8
      0.9
      7
      0.8
      6
      0.7
      5
      0.6
      refrigerante
      0.5
      pizza
      4
      0.4
      3
      0.3
      2
      0.2
      0.1
      1
      0
      0.1
      0.2
      0.3
      0.4
      0.5
      0.6
      0.7
      0.8
      0.9
      1
      0
      0.1
      0.2
      0.3
      0.4
      0.5
      0.6
      0.7
      0.8
      0.9
      1
      pepperoni
      pepperoni
      Um estudante de engenharia que recém aprendeu o método SIMPLEX resolveu fazer um estudo do lucro com a variação de pepperoni.
    • 6
      Tudo é simples
      Ele então propôs um modelo linear e otimizou a quantidade de pepperoni que deveria trazer o lucro máximo.
    • 7
      Não tão simples…
      Embora inicialmente as vendas pareceram ter aumentado, com o passar dos meses ele não percebeu um grande aumento médio nos lucros.
      • foi quando um engenheiro formado apareceu dizendo que o mundo não é linear! Propôs então um novo modelo:
    • 8
      Final feliz?
      Agora ele realmente percebeu um aumento significativo dos lucros e estava tocando seu negócio tranquilamente quando...
      Um concorrente aparece!!!
    • 9
      Capitalismo: modelo presa-predador
      Esse concorrente vendia as pizzas por um preço levemente mais caro mas com uma qualidade muito melhor!
      Não demorou muito para ele perder seus clientes…
    • 10
      Render-se jamais!
      Finalmente apareceu um pós-graduando que olhou para o seu problema e percebeu que, na verdade, ele estava lidando com um problema multi-objetivo.
    • 11
      Render-se jamais!
      1
      0.9
      0.8
      0.7
      0.6
      refrigerante
      0.5
      0.4
      0.3
      0.2
      0.1
      0
      0.1
      0.2
      0.3
      0.4
      0.5
      0.6
      0.7
      0.8
      0.9
      1
      pizza
      Ele apresentou então uma superfície de soluções contendo a relação de vendas entre pizza e refrigerante com diferentes modos de preparo.
      Agora ele podia satisfazer qualquer tipo de cliente.
    • 12
      A guerra nunca terminará
      Foi quando ele percebeu outros aspectos da confecção de uma pizza e como ela influenciava todo o processo:
      • Uma pequena variação na quantidade de fermento reflete em uma mudança drástica na massa da pizza
      • A qualidade do produto final (pizza) não pode ser medido adequadamente a ponto de obedecer um modelo matemático não-linear
      • Dois potes de molho sempre apresentam uma variação pequena no sabor
      • O gosto de seus clientes muda com o tempo
    • 13
      Apenas mudamos!
      Então ele resolveu abrir uma barraca de batatas-fritas
    • Conteúdo
      Prelúdio:
      O complicado problema de otimizar
      Parte 1: CONCEITOS
      O que é um problema com incerteza?
      Em que isso me afeta?
      Como se dividem?
      Aplicações
      Parte 2: OTIMIZANDO
      Do que preciso?
      O que a literatura mostra
      Parte 3: CONCLUINDO
      Tendências
      Referências
      14
    • 15
      Estático x Dinâmico
      • Muitos algoritmos de otimização são feitos para resolverem problemas estáticos
      • Mas na vida real alguns desses problemas tem uma natureza dinâmica
    • 16
      Estático x Dinâmico
      • Uma rota ótima pode mudar durante a aplicação da solução, por causas externas
      • Tratar um problema dinâmico como estático pode ser aceitável
      • Planejar uma nova rota a partir do ponto em que a solução foi alterada pode ser uma solução
    • 17
      Estático x Dinâmico
      Mas, em alguns problemas, apenas resolve-los novamente não é viável
      Algoritmos específicos devem ser criados para esses problemas
    • 18
      Quem se importa?
      Por que não fingir que o problema é bem definido e não se altera?
      Sempre podemos otimizar novamente!
      Mas…
    • 19
      Imprevistos acontecem
    • 20
      Mudança de planos
    • 21
      Não temos certeza do objetivo
    • 22
      Não temos precisão o suficiente
    • 23
      O que é um problema com incertezas?
      Um problema que é afetado por diversos fatores durante a otimização, causando alteração em sua função-objetivo
      Os fatores podem ser:
      Mudanças no espaço de busca
      Alterações nos parâmetros do vetor solução
      Imprecisões decorrentes de ruídos internos e/ou externos
      Para facilitar o entendimento, foram criados 4 tipos de ambientes incertos
    • 24
      Ambientes Ruidosos
      Imprecisão ou falha ao medir a função-objetivo
      F(x) = f(x) + d
      Jogos de Azar
      Física Ruidosa
      Reconhecimento de Voz
    • 25
      Otimização Robusta
      Quando os valores dos parâmetros podem mudar APÓS a otimização
      Não queremos uma variação brusca no valor da função-objetivo
      F(x) = f(x + d)
      Escalonamento de Processos
      Projeto de Peças
    • 26
      Aproximação de Funções
      Estimar uma função-objetivo de alto custo ou impossível de ser modelada matematicamente
      F(x) = E(x)
      Composição Musical
      Projetos Aerodinâmicos
    • 27
      Problemas Variantes no Tempo
      A função-objetivo muda com o tempo em forma, amplitude e até mesmo dimensão
      F(x) = f(x,t)
      Rota Dinâmica
      Ruído em Telefonia Celular
    • Conteúdo
      Prelúdio:
      O complicado problema de otimizar
      Parte 1: CONCEITOS
      O que é um problema com incerteza?
      Em que isso me afeta?
      Como se dividem?
      Aplicações
      Parte 2: OTIMIZANDO
      Do que preciso?
      O que a literatura mostra
      Parte 3: CONCLUINDO
      Tendências
      Referências
      28
    • 29
      Do que meu algoritmo precisa?
      Em Jin & Branke (2005), foram listadas as características adotadas pelos algoritmos de otimização em ambientes incertos
      Essas características foram incorporadas de maneiras diferentes em cada classe de algoritmos
    • 30
      Ambientes Ruidosos
    • 31
      Média Explícita
      Usado para reduzir a influência do ruído na avaliação da função-objetivo
      É feita durante as iterações (averaging over time)
      Avaliar uma solução N vezes reduz o desvio padrão por um fator de
    • 32
      Média Explícita
      Para reduzir o custo computacional desse processo podemos:
      aumentar o número de amostras com o tempo
      aumentar o número de amotras em soluções com maior variância estimada
      aumentar o número de amostras se a solução tem alta probabilidade de estar entre as melhores
    • 33
      Média Implícita
      Em Algoritmos Evolutivos, as regiões promissoras são avaliadas repetidamente
      Aumentando a população, o efeito do ruído é reduzido por existir uma média implícita ao avaliar soluções próximas
      Trabalhe com populações grandes!
    • 34
      Seleção Modificada
      Seleção probabilística: um indivíduo é escolhido se tem chances de ser melhor que os pais
      Seleção com limiar: um indivíduo é escolhido se tiver um fitness maior que os dos pais, acrescido de um limiar
    • 35
      Otimização Robusta
    • 36
      Média Explícita
      Método de Monte Carlo: média da função-objetivo sobre um número de perturbações aleatórias f(x + d)
      Outros métodos de redução de variância podem ser aplicados
    • 37
      Média Implícita
      Da mesma forma que com ambientes ruidosos, uma população grande o suficiente junto com uma seleção proporcional ajuda na convergência correta do algoritmo
      Alguns artigos mostraram que a média explícita é mais eficaz que a implícita para esses casos
      Mas um outro estudo mostrou que, teoricamente, a média implícita é melhor quando temos um número fixo de avaliações por iteração
    • 38
      Multi-objetivo
      Desvios positivos e negativos na região do espaço de objetivos podem se cancelar, fazendo com que uma solução indesejável se torne ótima
      Para resolver esse problema, podemos otimizar a função com dois objetivos: média e variância do fitness
      Podemos incluir também o valor do fitness real: 3 objetivos!
      E quando queremos uma fronteira de Pareto robusta em um problema multi-objetivo?
    • 39
      Aproximação de Funções
    • 40
      Métodos de Aproximação
      Simulações Numéricas x Experimentos Físicos
      Meta-modelo: gerar um modelo do espaço de busca através de dados que mapeiam as variáveis e a respectiva qualidade
      Fitness Inheritance, Fitness Imitation, Fitness Assignment
    • 41
      Fitness Inheritance
      O fitness de cada novo indivíduo é estimado através de seus vizinhos
      Alternativa: média ponderada dos pais
    • 42
      Fitness Imitation
      Os indivíduos são clusterizados
      Apenas o indivíduo que representa cada cluster é avaliado
      Os fitness dos outros indivíduos são estimados através do indivíduo representante e a distância entre eles
    • 43
      Fitness Assignment
      Utilizados em Algoritmos Co-evolutivos
      O fitness de uma população depende da outra
      Diversas estratégias na literatura
    • 44
      Problemas Variantes no Tempo
    • 45
      Geração de Diversidade
      É executadoaodetectarumamudança no ambiente:
      Aumentartaxa de mutação
      Introduzirnovosindivíduos
    • 46
      Manutenção de Diversidade
      Evita a convergência espalhando a população no espaço de busca:
      Imigração: novos indivíduos são introduzidos de tempos em tempos
      Fitness Sharing e Crowding Distance
      Seleção termodinâmica
    • 47
      Seleção Termodinâmica
      Cálculo da energia livre: F = <E> - TH
      <E> = média do fitness da população
      TH = medida de diversidade
      A nova população é escolhida da população anterior, um a um, com os indivíduos que minimizam F
    • 48
      Memória Dinâmica
      Uma lista de melhores soluções do passado é mantida
      Útil em casos em que o problema é cíclico
      Explícito: quando uma mudança é detectada, indivíduos da memória são reinseridos na população
      Implícito: uso dos conceitos de diplóides
    • 49
      Multi-população
      Manter várias populações otimizando em paralelo diferentes regiões do espaço de busca
      Implicitamente faz o papel de Manutenção de diversidade e Memória
      Mantém informações de vários pontos promissores do espaço: multimodalidade
    • 50
      Multi-população
      Self-organizing Scouts
      Multinational GA
      Multi-swarm PSO
      Artificial Immune Systems
    • 51
      Tamanho de População Auto-ajustável
      O tamanho da população se ajusta conforme a multimodalidade do problema
      Família aiNet de algoritmos (Sistemas Imunológicos Artificiais)
      Indivíduos ligados em rede
      Ajuda na manutenção da diversidade
    • 52
      Como Avaliar?
      Moving Peaks:
      http://www.aifb.uni-karlsruhe.de/~jbr/MovPeaks
      http://www.cs.uwyo.edu/~wspears/morrison/
      Dynamic Knapsack Problem (Mori et al., 1996)
      Dynamic Scheduling (Branke & Mattfeld, 2000)
    • 53
      Como Avaliar?
      Multi-objective Dynamic Problems (Farina et al., 2001)
      Cenários com deslocamentos linear, circular e gaussiano (de França et al., 2005)
      TSP dinâmico (de França et al., 2006)
      Competição CEC’09:
      http://www3.ntu.edu.sg/home/EPNSugan/index_files/CEC-09-Dynamic-Opt/CEC09-Dyn-Opt.htm
    • Conteúdo
      Prelúdio:
      O complicado problema de otimizar
      Parte 1: CONCEITOS
      O que é um problema com incerteza?
      Em que isso me afeta?
      Como se dividem?
      Aplicações
      Parte 2: OTIMIZANDO
      Do que preciso?
      O que a literatura mostra
      Parte 3: CONCLUINDO
      Tendências
      Referências
      54
    • 55
      Competição CEC’09
      Em 2009, no IEEE CongressonEvolutionaryComputation, foi realizada uma competição para otimização de funções numéricas variantes no tempo
      Os algoritmos vencedores foram:
      multi-populationjDE (DifferentialEvolution)
      DifferentialAnt-StigmergyAlgorithm
    • 56
      Competição CEC’09
      No multi-populationjDE, foi utilizado o conceito de multi-população para se adaptar aos ambientes dinâmicos
      No DifferentialAnt-StigmergyAlgorithm, o tamanho da população foi reduzido para 4 indivíduos e foi utilizada uma estratégia parecida com randomrestart
    • 57
      Tendências
      Com recursos limitados, os competidores tiveram que trabalhar com uma população limitada
      Essa limitação “quebra” o conceito de algoritmos populacionais, que distribuem a informação implícita ou explicitamente
    • 58
      Paralelização
      Os algoritmos evolutivos possuem uma natureza paralela
      Sua estrutura permite que a evolução de cada indivíduo na população ocorra de forma paralela
    • 59
      Paralelização
      Existem inúmeras alternativas para paralelizar um algoritmo: programação multi-core, cluster de processadores, programação de GPU
      Com a inclusão de apenas UMA linha de código foi possível paralelizar o algoritmo dopt-aiNet em um ambiente multi-core
      Umaplaca de vídeoquepermiteprogramação de GPU contendo 115 cores custaapenas US$ 115,00!
    • 60
      O que estudar?
      Interligação de indivíduos em rede e espalhamento de informação
      Otimização Multi-objetivo Robusta
      Incerteza nas Restrições
      Predições em Ambientes Variantes (preferências, tendências,...)
    • 61
      O que estudar?
      Busca Local e MétodosClássicos de Otimização
      CUDA e OpenMP
      Computação Orgânica
    • 62
      Para pensar!
      Qual a classificação das situações abaixo em otimização com incertezas?
      Uma pequena variação na quantidade de fermento reflete em uma mudança drástica na massa da pizza
      A qualidade do produto final (pizza) não pode ser medido adequadamente a ponto de obedecer um modelo matemático não-linear
      Dois potes de molho sempre apresentam uma variação pequena no sabor
      O gosto de seus clientes muda com o tempo
    • 63
      Referências
      Yaochu Jin and J. Branke. Evolutionary optimization in uncertain environments-a survey. Evolutionary Computation, IEEE Transactions on, 9(3):303–317, June 2005.
      J. Branke, Evolutionary Optimization in Dynamic Environments. Norwell, MA: Kluwer, 2001.
      R.W.Morrison, DesigningEvolutionaryAlgorithms for DynamicEnvironments. Berlin, Germany: Springer-Verlag, 2004.
      K. Weicker, Evolutionary Algorithms and Dynamic Optimization Problems. Berlin, Germany: DerAndereVerlag, 2003.
      Internet Repository on Evolutionary Algorithms for Dynamic Optimization Problems [Online]. Available: http://www.aifb.uni-karlsruhe.de/~jbr/EvoDOP
    • 64
      Referências Ruidosas
      A. N. Aizawa and B. W. Wah, “Scheduling of genetic algorithms in a noisy environment,” Evol. Comput., pp. 97–122, 1994.
      J. Branke and C. Schmidt, “Sequential sampling in noisy environments,” in Parallel Problem Solving from Nature, ser. LNCS. Berlin, Germany: Springer-Verlag, 2004.
      A. Di Pietro, L. While, and L. Barone, “Applying evolutionary algorithms to problems with noisy, time-consuming fitness functions,” in Proc. Congr. Evol. Comput., 2004, pp. 1254–1261.
      Y. Sano, H. Kita, I. Kamihira, andM. Yamaguchi, “Online optimization of an engine controller by means of a genetic algorithm using history of search,” in Proc. Asia-Pacific Conf. Simulated Evol. Learn., 2000, pp. 2929–2934.
    • 65
      Referências Ruidosas
      J. M. Fitzpatrickand J. I. Grefenstette, “Geneticalgorithms in noisyenvironments,” Mach. Learn., vol. 3, pp. 101–120, 1988.
      B. L. Miller and D. E. Goldberg, “Genetic algorithms, selection schemes, and the varying effects of noise,” Evol. Comput., vol. 4, no. 2, pp. 113–131, 1996.
      S. Markon, D. Arnold, T. Bäck, T. Beielstein, and H.-G. Beyer, “Thresholding—Aselectionoperator for noisy ES,” in Proc. Congr. Evol. Comput., 2001, pp. 465–472.
      G. Rudolph, “Evolutionary search for minimal elements in partially ordered fitness, sets,” in Proc. Annu. Conf. Evol. Program., 1998, pp. 345–353.
    • 66
      Referências Robustas
      V. Leon, S. Wu, and R. Storer, “Robustness measures and robust scheduling for job shops,” IIE Trans., vol. 26, pp. 32–43, 1994.
      H. Greiner, “Robust optical coating design with evolution strategies,” Appl. Opt., vol. 35, no. 28, pp. 5477–5483, 1996.
      D. Wiesmann, U. Hammel, and T. Bäck, “Robust design of multilayer optical coatings by means of evolutionary algorithms,” IEEE Trans. Evol. Comput., vol. 2, no. 4, pp. 162–167, 1998.
      J. Branke, “Creating robust solutions by means of evolutionary algorithms,” in Parallel Problem Solving from Nature, ser. LNCS. Berlin, Germany: Springer-Verlag, 1998, pp. 119–128.
      S. Tsutsui, A. Ghosh, and Y. Fujimoto, “A robust solution searching scheme in genetic search,” in Parallel Problem Solving from Nature. Berlin, Germany: Springer-Verlag, 1996, pp. 543–552.
    • 67
      Referências Robustas
      J. Branke, “Creating robust solutions by means of evolutionary algorithms,” in Parallel Problem Solving from Nature, ser. LNCS. Berlin, Germany: Springer-Verlag, 1998, pp. 119–128.
      H.-G. Beyer, “Actuator noise in recominant evolution strategies on general quadratic fitness models,” in Lecture Notes in Computer Science, vol. 3102, Proc. Genetic Evol. Comput. Conf., K. Deb et al., Eds.. Berlin, Germany, 2004, pp. 654–665.
      Y. Jin and B. Sendhoff, “Tradeoff between performance and robustness: An evolutionary multiobjective approach,” in Evolutionary Multi-Criterion Optimization, ser. LNCS 2632. Berlin, Germany: Springer-Verlag, 2003, pp. 237–251.
      T. Ray, “Constrained robust optimal design using a multiobjective evolutionary algorithm,” in Proc. Congr. Evol. Comput., 2002, pp. 419–424.
      K. Deb and H. Gupta, “Introducing robustness in multiobjective optimization,” Kanpur Genetic Algorithms Lab. (KanGAL), Indian Inst. Technol., Kanpur, India, Tech. Rep. 2 004 016, 2004.
    • 68
      Referências Aproximadas
      J. Grefenstette and J. Fitzpatrick, “Genetic search with approximate fitness evaluations,” in Proc. Int. Conf.Genetic Algorithms Their Applicat., 1985, pp. 112–120.
      L. Albert and D. Goldberg, “Efficientdisretization scheduling in multiple dimensions,” in Proc. Genetic Evol. Comput. Conf., 2002, pp. 271–278.
      X. Zhang, B. Julstrom, and W. Cheng, “Design of vector quantization codebooks using a genetic algorithm,” in Proc. Int. Conf. Evol. Comput., 1997, pp. 525–529.
      K. Sastry, D. Goldberg, and M. Pelikan, “Don’t evaluate, inherit,” in Proc. Genetic Evol. Comput. Conf., 2001, pp. 551–558.
      M. Salami and T. Hendtlass, “A fast evaluation strategy for evolutionary algorithms,” Appl. Soft Comput., vol. 2, pp. 156–173, 2003.
    • 69
      Referências Aproximadas
      E. Ducheyne, B. De Baets, and R. deWulf, “Is fitness inheritance useful for real-world applications?,” in EvolutionaryMulti-CriterionOptimization, ser. LNCS 2631. Berlin, Germany: Springer-Verlag, 2003, pp. 31–42.
      H.-S. Kim and S.-B. Cho, “An efficient genetic algorithms with less fitness evaluation by clustering,” in Proc. Congr. Evol. Comput., 2001, pp. 887–894.
      Y. Jin, “Acomprehensive survey of fitness approximation in evolutionary computation,” Soft Comput., vol. 9, no. 1, pp. 3–12, 2005.
      D. Moriarty and R. Miikkulainen, “Forming neural networks through efficient and adaptive coevolution,” Evol. Comput., vol. 5, no. 4, pp. 373–399, 1997.
      B. Whitehead, “Genetic evolution of radial basis function coverage using orthogonal niches,” IEEE Trans. Neural Netw., vol. 7, no. 6, pp. 1525–1528, 1996.
    • 70
      Referências Dinâmicas
      H. G. Cobb, “An investigation into the use of hypermutation as an adaptive operator in genetic algorithms having continuous, time-dependent nonstationary environments,” Naval Res. Lab., Washington, DC, Tech. Rep. AIC-90-001, 1990.
      F. Vavak, K. Jukes, and T. C. Fogarty, “Adaptive combustion balancing in multiple burner boiler using a genetic algorithm with variable range of local search,” in Proc. Int. Conf. Genetic Algorithms, T. Back, Ed., 1997, pp. 719–726.
      W. Cedeno and V. R. Vemuri, “On the use of niching for dynamic landscapes,” in Proc. Int. Conf. Evol. Comput., 1997, pp. 361–366.
      N. Mori, H. Kita, and Y. Nishikawa, “Adaptation to a changing environment by means of the thermodynamical genetic algorithm,” in Parallel Problem Solving from Nature. ser. LNCS, H.-M. Voigt, Ed. Berlin, Germany: Springer-Verlag, 1996, vol. 1141, pp. 513–522.
      C. L. Ramsey and J. J. Grefenstette, “Case-based initialization of genetic algorithms,” in Proc. Int. Conf. Genetic Algorithms, S. Forrest, Ed., 1993, pp. 84–91.
      D. E. Goldberg and R. E. Smith, “Nonstationary function optimization using genetic algorithms with dominance and diploidy,” in Genetic Algorithms, J. J. Grefenstette, Ed: Lawrence Erlbaum, 1987, pp. 59–68.
    • 71
      Referências Dinâmicas
      C. Ryan, “Diploidy without dominance,” in Proc. 3rd Nordic Workshop Genetic Algorithms, J. T. Alander, Ed., 1997, pp. 63–70.
      S. Yang, “Non-stationary problems optimization using the primal-dual genetic algorithm,” in Proc. Congr. Evol. Comput., vol. 3, 2003, pp. 2246–2253.
      I. Branke, T. Kaußler, C. Schmidt, and H. Schmeck, “A multipopulation approach to dynamic optimization problems,” in Adaptive Computing in Design and Manufacturing 2000, ser. LNCS. Berlin, Germany: Springer-Verlag, 2000.
      R. K. Ursem, “Mutinational GA optimization techniques in dynamic environments,” in Proc. Genetic Evol. Comput. Conf., D.Whitley et al., Eds., 2000, pp. 19–26.
      T. Blackwelland J. Branke. Multi-swarmoptimization in dynamicenvironments. In LNCS, No. 3005, Proc. of Applications ofEvolutionary Computing: EvoWorkshops 2004: EvoBIO, EvoCOMNET, EvoHOT, EvoISAP, EvoMUSART, andEvoSTOC, pages 489--500, 2004.
      J. Branke, “Memory enhanced evolutionary algorithms for changing optimization problems,” in Proc. Congr. Evol. Comput., vol. 3, 1999, pp. 1875–1882.
    • 72
      Referências Dinâmicas
      R. Morrison and K. De Jong, “A test problem generator for non-stationary environments,” in Proc. Congr. Evol. Comput., 1999, pp. 2047–2053.
      M. Farina, K. Deb, and P. Amato, “Dynamicmultiobjective optimization problem: Test cases, approximation, and applications,” in Lecture Notes in Computer Science 2632, Proc. Genetic Evol. Comput. Conf., 2003, pp. 311–326.
      M. Farina, K. Deb, and P. Amato, “Dynamic multiobjective optimization problems: Test cases, approximations, and applications,” IEEE Trans. Evol. Comput., vol. 8, no. 5, pp. 425–442, 2004.
      Y. Jin and B. Sendhoff, “Tradeoff between performance and robustness: An evolutionary multiobjective approach,” in Evolutionary Multi-Criterion Optimization, ser. LNCS 2632. Berlin, Germany: Springer-Verlag, 2003, pp. 237–251.
    • 73
      Referências Dinâmicas
      de França, F. O. ; Von Zuben, F. J. ; de Castro, L. N. . An artificial immune network for multimodal functionoptimizationondynamicenvironments. In: GeneticandEvolutionaryComputationConference, GECCO-2005, 2005, Washington. ProceedingsoftheGeneticandEvolutionaryComputationConference, GECCO-2005. New York : ACM Press, 2005. p. 289-296.
      de França, F. O. ; Gomes, L.C.T. ; de Castro, L. N. ; Von Zuben, F. J. . HandlingTime-Varying TSP Instances. In: IEEE CongressonEvolutionaryComputation (CEC 2006), 2006, Vancouver, BC. Proceedingsofthe IEEE CongressonEvolutionaryComputation, 2006. v. 1. p. 9735-9742.
      Junqueira, C. ; de França, F. O. ; Attux, R. R. F. ; Panazio, C.M. ; de Castro, L. N. ; Von Zuben, F. J.; ROMANO, J. M. T. . Immune-inspiredDynamicOptimization for BlindSpatialEqualization in UndermodeledChannels.. In: IEEE CongressonEvolutionaryComputation (CEC 2006), 2006, Vancouver, BC. Proceedingsofthe IEEE CongressonEvolutionaryComputation, 2006. v. 1. p. 9801-9808.
      Junqueira, C. ; de França, F. O. ; Attux, R. R. F. ; Suyama, R. ; de Castro, L. N. ; Von Zuben, F. J. ; Romano, J. M. T. . A Proposal for Blind FIR EqualizationofTime-VaryingChannels. In: MACHINE LEARNING FOR SIGNAL PROCESSING, 2005, Connecticut. IEEE International Workshop on Machine Learning for SignalProcessing, 2005.
    • 74
      Referências Dinâmicas
      de França, Fabrício Olivetti ; VON ZUBEN, F. J. . A dynamic artificial immunealgorithmapplied to challenging benchmarking problems. In: IEEE CongressonEvolutionaryComputation (CEC 2009), 2009, Trondheim. Proceedingsofthe IEEE CongressonEvolutionaryComputation, 2009. p. 423-430.
      P. Korošec, J. Šilc. The differential ant-stigmergy algorithm applied to dynamic optimization problems. In: IEEE CongressonEvolutionaryComputation (CEC 2009), 2009, Trondheim. Proceedingsofthe IEEE CongressonEvolutionaryComputation, 2009.
      J. Brest, A. Zamuda, B. Bošković, V. Žumer. DynamicOptimizationusingSelf-AdaptiveDifferentialEvolution. In: IEEE CongressonEvolutionaryComputation (CEC 2009), 2009, Trondheim. Proceedingsofthe IEEE CongressonEvolutionaryComputation, 2009.
      C. Li, S. Yang, T. T. Nguyen, E. L. Yu, X. Yao, Y. Jin, H.-G. Beyer, and P. N. Suganthan, “Benchmark generator for CEC’2009 competition on dynamic optimization,” Available at http://www3.ntu.edu.sg/home/EPNSugan/index files/CEC-09-Dynamic-Opt/CEC09-Dyn-Opt.htm., University of Leicester, University of Birmingham, Nanyang Technological University, Tech. Rep., September 2008.
    • 75
      Dúvidas?
      olivetti@dca.fee.unicamp.br
      fabricio.olivetti@gmail.com