O documento descreve a regra de Bayes e redes Bayesianas. Ele fornece um exemplo detalhado sobre como calcular a probabilidade de uma mulher ter câncer de mama dado um resultado positivo em um mamograma usando a regra de Bayes. Ele também define brevemente o que são redes Bayesianas, que representam dependências probabilísticas entre variáveis aleatórias através de um grafo direcionado acíclico.
O documento discute estimativas de erro em modelos de aprendizagem de máquina. Explica que o erro esperado no conjunto de teste tende a ser maior que no conjunto de treino, devido ao ajuste do modelo aos dados de treino. Também aborda medidas como viés e variância para avaliar estimadores, e como o erro quadrático médio equilibra ambos para medir o desvio total esperado entre a estimativa e o valor real.
O documento discute algoritmos genéticos e representação de cromossomos. Ele explica que os cromossomos podem ser representados de várias formas, incluindo binária, valores inteiros e reais. A representação binária é a mais simples, onde o cromossomo consiste de uma sequência de bits. A mutação e o cruzamento ocorrem durante o algoritmo genético para gerar novas soluções.
O documento discute a avaliação de desempenho de classificadores treinados. Explica que é necessário testar o modelo em um conjunto de dados independente para medir seu desempenho em dados novos. Também apresenta métricas como taxa de erro e curva de aprendizagem para avaliar quantitativamente o modelo.
O documento discute árvores de decisão e florestas aleatórias. Ele explica que árvores de decisão são uma das formas mais simples de aprendizado de máquina, representando uma sequência de regras "se...então" para classificar ou prever saídas com base em atributos de entrada. O documento também descreve características como nós internos representando testes de atributos e folhas especificando saídas, e discute expressividade e variações de árvores de decisão.
O documento descreve os princípios da computação evolutiva e algoritmos genéticos. Ele define computação evolutiva como técnicas que simulam a evolução natural, usando seleção, mutação e reprodução. O documento então explica o processo de seleção, mutação e reprodução em algoritmos genéticos e fornece detalhes sobre sua terminologia e funcionamento.
O documento discute inferência em lógica proposicional, incluindo tipos de provas como verificação de modelos e aplicação de regras de inferência. Ele explica como aplicar regras de inferência como modus ponens e modus tollens para derivar novas sentenças a partir de premissas, formando uma prova.
O documento discute busca como uma abordagem para solução de problemas em inteligência artificial. Explica que os problemas podem ser reduzidos a uma busca em um grafo, onde cada nó representa um estado do mundo e as arestas representam ações que levam de um estado a outro. A solução é um caminho no grafo que leva de um estado inicial a um estado final desejado. Exemplos de tipos de problemas incluem determinísticos e não determinísticos.
O documento descreve problemas de satisfação de restrições (CSPs), definidos por um conjunto de variáveis, domínios de valores para cada variável, e restrições sobre combinações de valores de variáveis. Apresenta exemplos de agendamento de aulas e coloração de mapas como CSPs, definindo suas variáveis, domínios e restrições.
O documento discute estimativas de erro em modelos de aprendizagem de máquina. Explica que o erro esperado no conjunto de teste tende a ser maior que no conjunto de treino, devido ao ajuste do modelo aos dados de treino. Também aborda medidas como viés e variância para avaliar estimadores, e como o erro quadrático médio equilibra ambos para medir o desvio total esperado entre a estimativa e o valor real.
O documento discute algoritmos genéticos e representação de cromossomos. Ele explica que os cromossomos podem ser representados de várias formas, incluindo binária, valores inteiros e reais. A representação binária é a mais simples, onde o cromossomo consiste de uma sequência de bits. A mutação e o cruzamento ocorrem durante o algoritmo genético para gerar novas soluções.
O documento discute a avaliação de desempenho de classificadores treinados. Explica que é necessário testar o modelo em um conjunto de dados independente para medir seu desempenho em dados novos. Também apresenta métricas como taxa de erro e curva de aprendizagem para avaliar quantitativamente o modelo.
O documento discute árvores de decisão e florestas aleatórias. Ele explica que árvores de decisão são uma das formas mais simples de aprendizado de máquina, representando uma sequência de regras "se...então" para classificar ou prever saídas com base em atributos de entrada. O documento também descreve características como nós internos representando testes de atributos e folhas especificando saídas, e discute expressividade e variações de árvores de decisão.
O documento descreve os princípios da computação evolutiva e algoritmos genéticos. Ele define computação evolutiva como técnicas que simulam a evolução natural, usando seleção, mutação e reprodução. O documento então explica o processo de seleção, mutação e reprodução em algoritmos genéticos e fornece detalhes sobre sua terminologia e funcionamento.
O documento discute inferência em lógica proposicional, incluindo tipos de provas como verificação de modelos e aplicação de regras de inferência. Ele explica como aplicar regras de inferência como modus ponens e modus tollens para derivar novas sentenças a partir de premissas, formando uma prova.
O documento discute busca como uma abordagem para solução de problemas em inteligência artificial. Explica que os problemas podem ser reduzidos a uma busca em um grafo, onde cada nó representa um estado do mundo e as arestas representam ações que levam de um estado a outro. A solução é um caminho no grafo que leva de um estado inicial a um estado final desejado. Exemplos de tipos de problemas incluem determinísticos e não determinísticos.
O documento descreve problemas de satisfação de restrições (CSPs), definidos por um conjunto de variáveis, domínios de valores para cada variável, e restrições sobre combinações de valores de variáveis. Apresenta exemplos de agendamento de aulas e coloração de mapas como CSPs, definindo suas variáveis, domínios e restrições.
O documento descreve um algoritmo de busca retroativa para resolver problemas de satisfação de restrições, utilizando forward checking e heurísticas como valores restantes mínimos, grau e valor menos restritivo. O algoritmo é demonstrado passo a passo em um exemplo de coloração de grafos, definindo variáveis, valores e propagando escolhas.
O documento descreve uma aula sobre lógica de primeira ordem. Apresenta os elementos básicos da lógica de primeira ordem, incluindo termos, predicados e a gramática formal para construir sentenças. Também explica como modelos e interpretações funcionam na lógica de primeira ordem, diferentemente da lógica proposicional.
O documento discute representação do conhecimento através de ontologias, incluindo taxonomias e herança. Ontologias organizam o conhecimento em categorias hierárquicas e permitem raciocinar sobre objetos classificados. Categorias podem ser representadas como predicados ou objetos. A herança permite que propriedades sejam herdadas por subcategorias.
O documento discute aprendizado supervisionado bayesiano. Ele introduz o aprendizado bayesiano como um método probabilístico e descreve que o aprendizado supervisionado tem como objetivo classificação ou regressão para mapear entradas em saídas com base em exemplos.
O documento descreve buscas informadas e heurísticas de busca. Ele discute estratégias como melhor primeiro, gulosa e A*, que usam heurísticas para guiar a busca em direção a soluções mais promissoras. O documento também discute problemas que podem ocorrer dependendo da heurística escolhida.
O documento discute o tratamento de incerteza em inteligência artificial. Aborda como a probabilidade e a teoria da decisão podem ser usadas para tomar decisões racionais quando os resultados são incertos, levando em conta a probabilidade de cada resultado e sua utilidade segundo as preferências de quem decide.
O documento descreve as bases de dados em lógica de primeira ordem, como interagir com elas fazendo buscas (queries) por meio de sentenças lógicas em LPO, e como qualquer query que possa ser inferida logicamente pela base de dados será respondida afirmativamente. As bases de dados contêm axiomas com informações básicas e teoremas derivados dos axiomas, e o documento discute técnicas como forward chaining, backward chaining e resolução para realizar inferência nas bases de dados.
O documento descreve os seis passos gerais para resolver equações, começando com remover parênteses, reduzir a um denominador comum, eliminar denominadores, agrupar termos semelhantes, realizar operações, e aplicar uma regra para obter a solução. Também observa que os primeiros dois passos nem sempre se aplicam dependendo da equação.
O documento descreve o algoritmo de máquina de vetor de suporte (SVM), explicando como ele busca encontrar o hiperplano separador de margem máxima entre os dados de treinamento de duas classes. O SVM define fronteiras lineares ótimas para dados linearmente separáveis, maximizando a distância entre o hiperplano separador e os exemplos de treinamento mais próximos, chamados de vetores de suporte. O problema é formulado como um problema de otimização para encontrar os parâmetros ω e b que maximizam essa distância de separação.
O documento descreve as redes neurais e o perceptron. Ele explica que as redes neurais se inspiram nos neurônios biológicos e como o perceptron funciona como a unidade básica de uma rede neural, recebendo sinais de entrada e aplicando uma função de ativação. Também discute possíveis funções de ativação como a função degrau e sigmóide e como os pesos das conexões, incluindo o viés, determinam se um perceptron é ativado ou não.
O documento descreve o funcionamento do algoritmo de backward chaining em programação lógica, começando com uma explicação geral do processo de raciocínio de trás para frente a partir de um objetivo. Em seguida, apresenta formalmente o algoritmo de backward chaining, explicando cada parte do processo de forma recursiva para encontrar substituições que satisfaçam a query dada uma base de conhecimento. Por fim, exemplifica o algoritmo em uma base de conhecimento sobre venda de armas.
O documento descreve os passos para executar resolução e encadeamento para frente em lógica de primeira ordem. Primeiro, as expressões lógicas devem ser convertidas para forma clausal sem quantificadores. Em seguida, as variáveis devem ser substituídas durante a resolução usando o processo de unificação. Por fim, a resolução é executada para derivar novas conclusões.
O documento discute arquivos e exceções em Java. Primeiramente, explica que dados de configuração precisam ser salvos em arquivos para serem preservados entre execuções do programa. Em seguida, descreve como objetos da classe File representam caminhos para arquivos e diretórios, e que escrever dados em arquivos requer objetos FileWriter. Por fim, discute que métodos que manipulam arquivos podem lançar exceções IOException, as quais precisam ser capturadas ou declaradas no método.
Este documento discute métodos abstratos e classes abstratas em Java. Explica que métodos abstratos não têm implementação definida na classe abstrata, mas sim nas subclasses, que são obrigadas a implementá-los. Também explica que a existência de pelo menos um método abstrato torna a classe abstrata, impedindo sua instanciação direta. A classe Casa é usada como exemplo de classe abstrata, já que no sistema modelo existem apenas casas quadradas e retangulares.
As três frases são:
1) O documento discute listas ligadas como uma alternativa a arranjos para alocar dinamicamente espaço na memória para novos itens.
2) Listas ligadas permitem adicionar itens de forma simples, sem necessidade de alocar um novo arranjo maior e copiar o conteúdo do anterior.
3) Cada nó de uma lista ligada contém um valor e um ponteiro para o próximo nó, permitindo navegar pela lista de forma flexível.
O documento discute especificadores de acesso em Java e como eles afetam a herança entre classes. Apresenta exemplos de como atributos privados na classe pai não podem ser acessados na classe filha, mesmo que estejam na memória do objeto, e como os construtores this() e super() devem ser a primeira instrução no construtor da classe filha.
O documento discute herança em classes. Foi quebrada a classe AreaCasa em subclasses Casa, CasaQuad e CasaRet. A classe Residência foi modificada para receber uma instância de Casa (superclasse) em vez de AreaCasa, permitindo o uso de CasaQuad e CasaRet. Isso é demonstrado em um exemplo de código.
O documento descreve o algoritmo de ordenação por inserção (insertion sort). Ele ordena um array percorrendo-o de esquerda para direita e inserindo cada novo elemento na posição correta na subparte já ordenada, deslocando os demais elementos para a direita quando necessário. O exemplo demonstra graficamente cada etapa do processo de ordenação de um array.
O documento discute a busca binária em arranjos ordenados. Ele explica que a busca binária divide o arranjo ao meio em cada etapa e descarta metade dos elementos, levando a buscas potencialmente muito mais rápidas do que a busca sequencial. A busca binária para no elemento buscado, no fim do arranjo, ou quando encontrar um elemento maior que o buscado.
O documento descreve um algoritmo de busca retroativa para resolver problemas de satisfação de restrições, utilizando forward checking e heurísticas como valores restantes mínimos, grau e valor menos restritivo. O algoritmo é demonstrado passo a passo em um exemplo de coloração de grafos, definindo variáveis, valores e propagando escolhas.
O documento descreve uma aula sobre lógica de primeira ordem. Apresenta os elementos básicos da lógica de primeira ordem, incluindo termos, predicados e a gramática formal para construir sentenças. Também explica como modelos e interpretações funcionam na lógica de primeira ordem, diferentemente da lógica proposicional.
O documento discute representação do conhecimento através de ontologias, incluindo taxonomias e herança. Ontologias organizam o conhecimento em categorias hierárquicas e permitem raciocinar sobre objetos classificados. Categorias podem ser representadas como predicados ou objetos. A herança permite que propriedades sejam herdadas por subcategorias.
O documento discute aprendizado supervisionado bayesiano. Ele introduz o aprendizado bayesiano como um método probabilístico e descreve que o aprendizado supervisionado tem como objetivo classificação ou regressão para mapear entradas em saídas com base em exemplos.
O documento descreve buscas informadas e heurísticas de busca. Ele discute estratégias como melhor primeiro, gulosa e A*, que usam heurísticas para guiar a busca em direção a soluções mais promissoras. O documento também discute problemas que podem ocorrer dependendo da heurística escolhida.
O documento discute o tratamento de incerteza em inteligência artificial. Aborda como a probabilidade e a teoria da decisão podem ser usadas para tomar decisões racionais quando os resultados são incertos, levando em conta a probabilidade de cada resultado e sua utilidade segundo as preferências de quem decide.
O documento descreve as bases de dados em lógica de primeira ordem, como interagir com elas fazendo buscas (queries) por meio de sentenças lógicas em LPO, e como qualquer query que possa ser inferida logicamente pela base de dados será respondida afirmativamente. As bases de dados contêm axiomas com informações básicas e teoremas derivados dos axiomas, e o documento discute técnicas como forward chaining, backward chaining e resolução para realizar inferência nas bases de dados.
O documento descreve os seis passos gerais para resolver equações, começando com remover parênteses, reduzir a um denominador comum, eliminar denominadores, agrupar termos semelhantes, realizar operações, e aplicar uma regra para obter a solução. Também observa que os primeiros dois passos nem sempre se aplicam dependendo da equação.
O documento descreve o algoritmo de máquina de vetor de suporte (SVM), explicando como ele busca encontrar o hiperplano separador de margem máxima entre os dados de treinamento de duas classes. O SVM define fronteiras lineares ótimas para dados linearmente separáveis, maximizando a distância entre o hiperplano separador e os exemplos de treinamento mais próximos, chamados de vetores de suporte. O problema é formulado como um problema de otimização para encontrar os parâmetros ω e b que maximizam essa distância de separação.
O documento descreve as redes neurais e o perceptron. Ele explica que as redes neurais se inspiram nos neurônios biológicos e como o perceptron funciona como a unidade básica de uma rede neural, recebendo sinais de entrada e aplicando uma função de ativação. Também discute possíveis funções de ativação como a função degrau e sigmóide e como os pesos das conexões, incluindo o viés, determinam se um perceptron é ativado ou não.
O documento descreve o funcionamento do algoritmo de backward chaining em programação lógica, começando com uma explicação geral do processo de raciocínio de trás para frente a partir de um objetivo. Em seguida, apresenta formalmente o algoritmo de backward chaining, explicando cada parte do processo de forma recursiva para encontrar substituições que satisfaçam a query dada uma base de conhecimento. Por fim, exemplifica o algoritmo em uma base de conhecimento sobre venda de armas.
O documento descreve os passos para executar resolução e encadeamento para frente em lógica de primeira ordem. Primeiro, as expressões lógicas devem ser convertidas para forma clausal sem quantificadores. Em seguida, as variáveis devem ser substituídas durante a resolução usando o processo de unificação. Por fim, a resolução é executada para derivar novas conclusões.
O documento discute arquivos e exceções em Java. Primeiramente, explica que dados de configuração precisam ser salvos em arquivos para serem preservados entre execuções do programa. Em seguida, descreve como objetos da classe File representam caminhos para arquivos e diretórios, e que escrever dados em arquivos requer objetos FileWriter. Por fim, discute que métodos que manipulam arquivos podem lançar exceções IOException, as quais precisam ser capturadas ou declaradas no método.
Este documento discute métodos abstratos e classes abstratas em Java. Explica que métodos abstratos não têm implementação definida na classe abstrata, mas sim nas subclasses, que são obrigadas a implementá-los. Também explica que a existência de pelo menos um método abstrato torna a classe abstrata, impedindo sua instanciação direta. A classe Casa é usada como exemplo de classe abstrata, já que no sistema modelo existem apenas casas quadradas e retangulares.
As três frases são:
1) O documento discute listas ligadas como uma alternativa a arranjos para alocar dinamicamente espaço na memória para novos itens.
2) Listas ligadas permitem adicionar itens de forma simples, sem necessidade de alocar um novo arranjo maior e copiar o conteúdo do anterior.
3) Cada nó de uma lista ligada contém um valor e um ponteiro para o próximo nó, permitindo navegar pela lista de forma flexível.
O documento discute especificadores de acesso em Java e como eles afetam a herança entre classes. Apresenta exemplos de como atributos privados na classe pai não podem ser acessados na classe filha, mesmo que estejam na memória do objeto, e como os construtores this() e super() devem ser a primeira instrução no construtor da classe filha.
O documento discute herança em classes. Foi quebrada a classe AreaCasa em subclasses Casa, CasaQuad e CasaRet. A classe Residência foi modificada para receber uma instância de Casa (superclasse) em vez de AreaCasa, permitindo o uso de CasaQuad e CasaRet. Isso é demonstrado em um exemplo de código.
O documento descreve o algoritmo de ordenação por inserção (insertion sort). Ele ordena um array percorrendo-o de esquerda para direita e inserindo cada novo elemento na posição correta na subparte já ordenada, deslocando os demais elementos para a direita quando necessário. O exemplo demonstra graficamente cada etapa do processo de ordenação de um array.
O documento discute a busca binária em arranjos ordenados. Ele explica que a busca binária divide o arranjo ao meio em cada etapa e descarta metade dos elementos, levando a buscas potencialmente muito mais rápidas do que a busca sequencial. A busca binária para no elemento buscado, no fim do arranjo, ou quando encontrar um elemento maior que o buscado.
Strings em Java são imutáveis. Ao modificar um caractere em um String, na verdade se está criando um novo objeto String. Comparar Strings com == verifica se os objetos são os mesmos na memória, não se o conteúdo é igual.
Slides Lição 12, Betel, Ordenança para amar o próximo, 2Tr24.pptxLuizHenriquedeAlmeid6
Slideshare Lição 12, Betel, Ordenança para amar o próximo, Pr Henrique, EBD NA TV, 2° TRIMESTRE DE 2024, ADULTOS, EDITORA BETEL, TEMA, ORDENANÇAS BÍBLICAS, Doutrina Fundamentais Imperativas aos Cristãos para uma vida bem-sucedida e de Comunhão com DEUS, estudantes, professores, Ervália, MG, Imperatriz, MA, Cajamar, SP, estudos bíblicos, gospel, DEUS, ESPÍRITO SANTO, JESUS CRISTO, Comentários, Bispo Abner Ferreira, Com. Extra Pr. Luiz Henrique, 99-99152-0454, Canal YouTube, Henriquelhas, @PrHenrique
Na sequência das Eleições Europeias realizadas em 09 de junho de 2024, Portugal voltou a eleger 21 eurodeputados ao Parlamento Europeu para um mandato de cinco ano (2024-2029).
Para saber mais, consulte o portal Eurocid em:
- https://eurocid.mne.gov.pt/eleicoes-europeias-2024-2029
Autor: Centro de Informação Europeia Jacques Delors
Fonte: https://infoeuropa.mne.gov.pt/Nyron/Library/Catalog/winlibimg.aspx?doc=56528&img=11604
Data: junho 2024.
Conheça também outros recursos sobre as Eleições Europeias 2024-2029 desenvolvidos pelo CIEJD:
Infografias (resultados e geral)
- https://pt.slideshare.net/slideshow/infografia-resultados-das-eleicoes-europeias-2024-2029-cf00/269810513
- https://pt.slideshare.net/slideshow/infografia-eleies-europeias-20242029/266850232
Quiz
- https://pt.slideshare.net/slideshows/quiz-eleies-europeias-20242029-parlamento-europeu/266850605
Sopa de letras
- https://pt.slideshare.net/slideshows/sopa-de-letras-eleies-europeias-20242029/266849887
Apresentação
- https://pt.slideshare.net/slideshow/apresentao-eleies-europeias-20242029/267335015
Álcoois: compostos que contêm um grupo hidroxila (-OH) ligado a um átomo de carbono saturado.
Aldeídos: possuem o grupo carbonila (C=O) no final de uma cadeia carbônica.
Cetonas: também contêm o grupo carbonila, mas no meio da cadeia carbônica.
Ácidos carboxílicos: caracterizados pelo grupo carboxila (-COOH).
Éteres: compostos com um átomo de oxigênio ligando duas cadeias carbônicas.
Ésteres: derivados dos ácidos carboxílicos, onde o hidrogênio do grupo carboxila é substituído por um radical alquila ou arila.
Aminas: contêm o grupo amino (-NH2) ligado a um ou mais átomos de carbono.
Esses são apenas alguns exemplos. Existem muitos outros grupos funcionais que definem as propriedades químicas e físicas dos compostos orgânicas.
UFCD_7211_Os sistemas do corpo humano_ imunitário, circulatório, respiratório...Manuais Formação
Manual da UFCD_7211_Os sistemas do corpo humano_ imunitário, circulatório, respiratório, nervoso e músculo-esquelético_pronto para envio, via email e formato editável.
Email: formacaomanuaisplus@gmail.com
Loteria - Adição, subtração, multiplicação e divisão.Mary Alvarenga
Os jogos utilizados como ferramenta de ensino para o estudo da matemática são de suma importância, tendo em vista que podem proporcionar melhor desempenho no aprendizado dos conteúdos, além de estimular o interesse, o entusiasmo e o prazer de estudar.
PP Slides Lição 11, Betel, Ordenança para exercer a fé, 2Tr24.pptxLuizHenriquedeAlmeid6
Slideshare Lição 11, Betel, Ordenança para exercer a fé, 2Tr24, Pr Henrique, EBD NA TV, 2° TRIMESTRE DE 2024, ADULTOS, EDITORA BETEL, TEMA, ORDENANÇAS BÍBLICAS, Doutrina Fundamentais Imperativas aos Cristãos para uma vida bem-sucedida e de Comunhão com DEUS, estudantes, professores, Ervália, MG, Imperatriz, MA, Cajamar, SP, estudos bíblicos, gospel, DEUS, ESPÍRITO SANTO, JESUS CRISTO, Comentários, Bispo Abner Ferreira, Com. Extra Pr. Luiz Henrique, 99-99152-0454, Canal YouTube, Henriquelhas, @PrHenrique
Infografia sobre os Resultados das Eleições Europeias 2024-2029 com as seguintes informações:
- distribuição de lugares por país no Parlamento Europeu 2024-2029;
- n.º total de deputados eleitos;
- composição política do Parlamento Europeu;
- participação eleitoral por país e por ano;
- após as Eleições Europeias.
Versão web:
https://www.canva.com/design/DAGH1vH0iYw/d1CnVFy_lzHKHITe4YkT_g/view
Para saber mais, consulte o portal Eurocid em:
- https://eurocid.mne.gov.pt/eleicoes-europeias-2024-2029
Autor: Centro de Informação Europeia Jacques Delors
Fonte: https://infoeuropa.mne.gov.pt/Nyron/Library/Catalog/winlibimg.aspx?doc=56537&img=11611
Data: junho 2024.
Conheça também outros recursos sobre as Eleições Europeias 2024-2029 desenvolvidos pelo CIEJD:
Quiz
- https://pt.slideshare.net/slideshows/quiz-eleies-europeias-20242029-parlamento-europeu/266850605
Sopa de letras
- https://pt.slideshare.net/slideshows/sopa-de-letras-eleies-europeias-20242029/266849887
Infografia (geral)
- https://pt.slideshare.net/slideshow/infografia-eleies-europeias-20242029/266850232
Apresentação
- https://pt.slideshare.net/slideshow/apresentao-eleies-europeias-20242029/267335015
Slide informativo (Eurodeputados portugueses eleitos)
- https://pt.slideshare.net/slideshow/eurodeputados-portugueses-2024-2029-parlamento-europeu/269805596
Psicologia e Sociologia - Módulo 2 – Sociedade e indivíduo.pptx
(ACH2044) Inteligência Artificial - Aula 16
1. Inteligência Artificial – ACH2016
Aula 16 – Regra de Bayes e Redes Bayesianas
Norton Trevisan Roman
(norton@usp.br)
16 de maio de 2019
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 1 / 42
4. Regra de Bayes
Exemplo
Considere o seguinte problema:
1% das mulheres na idade de 40 anos que fazem exames de
rotina têm câncer de mama.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 3 / 42
5. Regra de Bayes
Exemplo
Considere o seguinte problema:
1% das mulheres na idade de 40 anos que fazem exames de
rotina têm câncer de mama.
80% das mulheres com câncer de mama terão mamogramas
positivos para câncer
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 3 / 42
6. Regra de Bayes
Exemplo
Considere o seguinte problema:
1% das mulheres na idade de 40 anos que fazem exames de
rotina têm câncer de mama.
80% das mulheres com câncer de mama terão mamogramas
positivos para câncer
9,6% das mulheres sem câncer de mama também terão
mamogramas positivos
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 3 / 42
7. Regra de Bayes
Exemplo
Considere o seguinte problema:
1% das mulheres na idade de 40 anos que fazem exames de
rotina têm câncer de mama.
80% das mulheres com câncer de mama terão mamogramas
positivos para câncer
9,6% das mulheres sem câncer de mama também terão
mamogramas positivos
Uma mulher de 40 anos teve um mamograma positivo em
um exame de rotina. Qual a probabilidade dela efetivamente
ter câncer de mama?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 3 / 42
9. Regra de Bayes
Exemplo
P(câncer|positivo) = ?
P(câncer|positivo) =
P(positivo|câncer)P(câncer)
P(positivo)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 4 / 42
10. Regra de Bayes
Exemplo
P(câncer|positivo) = ?
P(câncer|positivo) =
P(positivo|câncer)P(câncer)
P(positivo)
P(positivo|câncer) =
80
100
= 0, 8
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 4 / 42
11. Regra de Bayes
Exemplo
P(câncer|positivo) = ?
P(câncer|positivo) =
P(positivo|câncer)P(câncer)
P(positivo)
P(positivo|câncer) =
80
100
= 0, 8
P(câncer) =
1
100
= 0, 01
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 4 / 42
12. Regra de Bayes
Exemplo
P(câncer|positivo) = ?
P(câncer|positivo) =
P(positivo|câncer)P(câncer)
P(positivo)
P(positivo|câncer) =
80
100
= 0, 8
P(câncer) =
1
100
= 0, 01
P(positivo) =?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 4 / 42
13. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
14. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
15. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Causa: ter (ou não) câncer
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
16. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Causa: ter (ou não) câncer
P(positivo) = P(positivo ∧ câncer) + P(positivo ∧ ¬câncer)]
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
17. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Causa: ter (ou não) câncer
P(positivo) = P(positivo ∧ câncer) + P(positivo ∧ ¬câncer)]
P(positivo ∧ câncer) = P(positivo|câncer)P(câncer)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
18. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Causa: ter (ou não) câncer
P(positivo) = P(positivo ∧ câncer) + P(positivo ∧ ¬câncer)]
P(positivo ∧ câncer) = P(positivo|câncer)P(câncer)
P(positivo ∧ câncer) = 0, 8 × 0, 01 = 0, 008
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
19. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Causa: ter (ou não) câncer
P(positivo) = P(positivo ∧ câncer) + P(positivo ∧ ¬câncer)]
P(positivo ∧ câncer) = P(positivo|câncer)P(câncer)
P(positivo ∧ câncer) = 0, 8 × 0, 01 = 0, 008
P(positivo ∧ ¬câncer) = P(positivo|¬câncer)(1 − P(câncer))
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
20. Regra de Bayes
Exemplo
Lembre que a probabilidade de um efeito é obtida
somando-se as probabilidades de sua ocorrência em
conjunto com todas suas causas
Efeito: mamograma positivo
Causa: ter (ou não) câncer
P(positivo) = P(positivo ∧ câncer) + P(positivo ∧ ¬câncer)]
P(positivo ∧ câncer) = P(positivo|câncer)P(câncer)
P(positivo ∧ câncer) = 0, 8 × 0, 01 = 0, 008
P(positivo ∧ ¬câncer) = P(positivo|¬câncer)(1 − P(câncer))
P(positivo ∧ ¬câncer) =
9, 6
100
× (1 − 0, 01) = 0, 09504
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 5 / 42
27. Regra de Bayes
Redes Bayesianas
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 7 / 42
28. Redes Bayesianas
Trata-se de uma estrutura de dados
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
29. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
30. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Representa dependências entre variáveis
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
31. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Representa dependências entre variáveis
Grafo dirigido acı́clico
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
32. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Representa dependências entre variáveis
Grafo dirigido acı́clico
Nós: variáveis aleatórias (discretas ou contı́nuas)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
33. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Representa dependências entre variáveis
Grafo dirigido acı́clico
Nós: variáveis aleatórias (discretas ou contı́nuas)
Cada nó tem uma tabela de distribuição de probabilidade
que quantifica a influência dos pais nesse nó
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
34. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Representa dependências entre variáveis
Grafo dirigido acı́clico
Nós: variáveis aleatórias (discretas ou contı́nuas)
Cada nó tem uma tabela de distribuição de probabilidade
que quantifica a influência dos pais nesse nó
P(Xi |pais(Xi ))
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
35. Redes Bayesianas
Trata-se de uma estrutura de dados
Representa a distribuição conjunta de probabilidade para um
conjunto de variáveis
Representa dependências entre variáveis
Grafo dirigido acı́clico
Nós: variáveis aleatórias (discretas ou contı́nuas)
Cada nó tem uma tabela de distribuição de probabilidade
que quantifica a influência dos pais nesse nó
P(Xi |pais(Xi ))
Arestas: unem variáveis interdependentes
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 8 / 42
37. Redes Bayesianas
Topologia
A topologia da rede especifica as relações de
independência condicional existentes:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 9 / 42
38. Redes Bayesianas
Topologia
A topologia da rede especifica as relações de
independência condicional existentes:
Clima Cárie
Broca Dor
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 9 / 42
39. Redes Bayesianas
Topologia
A topologia da rede especifica as relações de
independência condicional existentes:
Clima Cárie
Broca Dor
Fonte: Adaptado de AIMA. Russell & Norvig.
Clima é independente das demais variáveis
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 9 / 42
40. Redes Bayesianas
Topologia
A topologia da rede especifica as relações de
independência condicional existentes:
Clima Cárie
Broca Dor
Fonte: Adaptado de AIMA. Russell & Norvig.
Clima é independente das demais variáveis
Broca e Dor são condicionalmente independentes, dada
Cárie
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 9 / 42
42. Redes Bayesianas
Exemplo
Você está no trabalho...
Seu vizinho, João, liga dizendo que o alarme da sua casa
disparou
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 10 / 42
43. Redes Bayesianas
Exemplo
Você está no trabalho...
Seu vizinho, João, liga dizendo que o alarme da sua casa
disparou
Contudo, a vizinha, Maria, não ligou
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 10 / 42
44. Redes Bayesianas
Exemplo
Você está no trabalho...
Seu vizinho, João, liga dizendo que o alarme da sua casa
disparou
Contudo, a vizinha, Maria, não ligou
Algumas vezes o alarme dispara por conta de pequenos
tremores
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 10 / 42
45. Redes Bayesianas
Exemplo
Você está no trabalho...
Seu vizinho, João, liga dizendo que o alarme da sua casa
disparou
Contudo, a vizinha, Maria, não ligou
Algumas vezes o alarme dispara por conta de pequenos
tremores
Há um ladrão?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 10 / 42
46. Redes Bayesianas
Exemplo
Você está no trabalho...
Seu vizinho, João, liga dizendo que o alarme da sua casa
disparou
Contudo, a vizinha, Maria, não ligou
Algumas vezes o alarme dispara por conta de pequenos
tremores
Há um ladrão?
Variáveis:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 10 / 42
47. Redes Bayesianas
Exemplo
Você está no trabalho...
Seu vizinho, João, liga dizendo que o alarme da sua casa
disparou
Contudo, a vizinha, Maria, não ligou
Algumas vezes o alarme dispara por conta de pequenos
tremores
Há um ladrão?
Variáveis:
Ladrão, Terremoto, Alarme, JoãoLiga, MariaLiga
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 10 / 42
48. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
49. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Um ladrão pode disparar o alarme
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
50. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Um ladrão pode disparar o alarme
Um terremoto pode disparar o alarme
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
51. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Um ladrão pode disparar o alarme
Um terremoto pode disparar o alarme
O alarme pode fazer com que Maria ligue
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
52. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Um ladrão pode disparar o alarme
Um terremoto pode disparar o alarme
O alarme pode fazer com que Maria ligue
Embora ela nem sempre o escute
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
53. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Um ladrão pode disparar o alarme
Um terremoto pode disparar o alarme
O alarme pode fazer com que Maria ligue
Embora ela nem sempre o escute
O alarme pode fazer com que João ligue
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
54. Redes Bayesianas
Exemplo – Relações causais (i.e., regras)
Um ladrão pode disparar o alarme
Um terremoto pode disparar o alarme
O alarme pode fazer com que Maria ligue
Embora ela nem sempre o escute
O alarme pode fazer com que João ligue
Embora algumas vezes ele confunda o telefone com o alarme
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 11 / 42
55. Redes Bayesianas
Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 12 / 42
56. Redes Bayesianas
Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
P(¬x|y) está implicita-
mente representada, ao
fazermos 1 − P(x|y). O
mesmo vale para P(¬x)
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 12 / 42
57. Redes Bayesianas
Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
As tabelas de probabilidade
podem ser obtidas a partir
de um conjunto de dados
→ podem ser treinadas
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 12 / 42
58. Redes Bayesianas
Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
As tabelas de probabilidade
podem ser obtidas a partir
de um conjunto de dados
→ podem ser treinadas
Probabilidades resumem um conjunto potencialmente infinito de causas, ao definirem valores
para algo não acontecer (como o alarme não soar), sem se preocupar em definir suas causas.
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 12 / 42
59. Redes Bayesianas
Semântica Global
Define a distribuição conjunta total como sendo o
produto das distribuições condicionais locais
P(X1 = x1, . . . , Xn = xn) = P(x1, . . . , xn) =
n
Y
i=1
P(xi |pais(Xi ))
pais(Xi ) – valores das variáveis pais de Xi na rede
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 13 / 42
60. Redes Bayesianas
Semântica Global
Define a distribuição conjunta total como sendo o
produto das distribuições condicionais locais
P(X1 = x1, . . . , Xn = xn) = P(x1, . . . , xn) =
n
Y
i=1
P(xi |pais(Xi ))
pais(Xi ) – valores das variáveis pais de Xi na rede
Exemplo:
João e Maria ligam porque o alarme soou, mas não há nem
terremoto, nem ladrão
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 13 / 42
61. Redes Bayesianas
Semântica Global
Define a distribuição conjunta total como sendo o
produto das distribuições condicionais locais
P(X1 = x1, . . . , Xn = xn) = P(x1, . . . , xn) =
n
Y
i=1
P(xi |pais(Xi ))
pais(Xi ) – valores das variáveis pais de Xi na rede
Exemplo:
João e Maria ligam porque o alarme soou, mas não há nem
terremoto, nem ladrão
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 13 / 42
63. Redes Bayesianas
Construção de Redes Bayesianas
Considere a regra da cadeia:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |xi−1, . . . , x1) Verdadeira para todo
conjunto de variáveis
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 14 / 42
64. Redes Bayesianas
Construção de Redes Bayesianas
Considere a regra da cadeia:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |xi−1, . . . , x1) Verdadeira para todo
conjunto de variáveis
Compare-a com a interpretação semântica de uma rede
bayesiana:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |pais(xi ))
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 14 / 42
65. Redes Bayesianas
Construção de Redes Bayesianas
Considere a regra da cadeia:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |xi−1, . . . , x1) Verdadeira para todo
conjunto de variáveis
Compare-a com a interpretação semântica de uma rede
bayesiana:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |pais(xi ))
P(xi |xi−1, . . . , x1) = P(xi |pais(xi )), se
pais(xi ) ⊆ {xi−1, . . . , x1}
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 14 / 42
66. Redes Bayesianas
Construção de Redes Bayesianas
Considere a regra da cadeia:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |xi−1, . . . , x1) Verdadeira para todo
conjunto de variáveis
Compare-a com a interpretação semântica de uma rede
bayesiana:
P(x1, . . . , xn) =
n
Y
i=1
P(xi |pais(xi ))
P(xi |xi−1, . . . , x1) = P(xi |pais(xi )), se
pais(xi ) ⊆ {xi−1, . . . , x1}
Condição satisfeita se rotularmos os nós em uma ordem
consistente com a ordem parcial implı́cita no grafo
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 14 / 42
67. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
68. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Redes bayesianas são representações corretas do domı́nio
somente se cada nó for condicionalmente independente de
seus predecessores na ordenação, dados seus pais
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
69. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Redes bayesianas são representações corretas do domı́nio
somente se cada nó for condicionalmente independente de
seus predecessores na ordenação, dados seus pais
Método:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
70. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Redes bayesianas são representações corretas do domı́nio
somente se cada nó for condicionalmente independente de
seus predecessores na ordenação, dados seus pais
Método:
Escolha uma ordem para as variáveis Xn, . . . , X1
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
71. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Redes bayesianas são representações corretas do domı́nio
somente se cada nó for condicionalmente independente de
seus predecessores na ordenação, dados seus pais
Método:
Escolha uma ordem para as variáveis Xn, . . . , X1
Para i = 1 até n:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
72. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Redes bayesianas são representações corretas do domı́nio
somente se cada nó for condicionalmente independente de
seus predecessores na ordenação, dados seus pais
Método:
Escolha uma ordem para as variáveis Xn, . . . , X1
Para i = 1 até n:
Adicione Xi à rede
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
73. Redes Bayesianas
Construção de Redes Bayesianas
P(Xi|Xi−1, . . . , X1) = P(Xi|pais(Xi))
Redes bayesianas são representações corretas do domı́nio
somente se cada nó for condicionalmente independente de
seus predecessores na ordenação, dados seus pais
Método:
Escolha uma ordem para as variáveis Xn, . . . , X1
Para i = 1 até n:
Adicione Xi à rede
Selecione pais de X1, . . . , Xi−1 tais que
P(Xi |pais(Xi )) = P(Xi |Xi−1, . . . , X1)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 15 / 42
74. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
75. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Ordem: R, T, A, J, M
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
76. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Ordem: R, T, A, J, M
Maria ligar (M) é influenciada pelo fato de ter um ladrão (R)
ou terremoto (T)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
77. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Ordem: R, T, A, J, M
Maria ligar (M) é influenciada pelo fato de ter um ladrão (R)
ou terremoto (T)
Não diretamente, apenas por meio do alarme (A)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
78. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Ordem: R, T, A, J, M
Maria ligar (M) é influenciada pelo fato de ter um ladrão (R)
ou terremoto (T)
Não diretamente, apenas por meio do alarme (A)
Dado o estado do alarme, João ligar (J) não influencia o
fato de Maria ligar ou não
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
79. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Ordem: R, T, A, J, M
Maria ligar (M) é influenciada pelo fato de ter um ladrão (R)
ou terremoto (T)
Não diretamente, apenas por meio do alarme (A)
Dado o estado do alarme, João ligar (J) não influencia o
fato de Maria ligar ou não
Com base nessas crenças, podemos dizer que
P(M|J, A, T, R) = P(M|A)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
80. Redes Bayesianas
Construção de Redes Bayesianas
Exemplo de teste para os pais:
Ordem: R, T, A, J, M
Maria ligar (M) é influenciada pelo fato de ter um ladrão (R)
ou terremoto (T)
Não diretamente, apenas por meio do alarme (A)
Dado o estado do alarme, João ligar (J) não influencia o
fato de Maria ligar ou não
Com base nessas crenças, podemos dizer que
P(M|J, A, T, R) = P(M|A)
E nossa escolha foi correta, para mariaLigar
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 16 / 42
81. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
82. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
83. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
A ordem correta de inclusão de nós é, então:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
84. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
A ordem correta de inclusão de nós é, então:
Primeiro adicione as “causas principais”
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
85. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
A ordem correta de inclusão de nós é, então:
Primeiro adicione as “causas principais”
Em seguida, as variáveis que elas influenciam
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
86. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
A ordem correta de inclusão de nós é, então:
Primeiro adicione as “causas principais”
Em seguida, as variáveis que elas influenciam
Repita, até atingir as folhas – variáveis que não influenciam ninguém
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
87. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
A ordem correta de inclusão de nós é, então:
Primeiro adicione as “causas principais”
Em seguida, as variáveis que elas influenciam
Repita, até atingir as folhas – variáveis que não influenciam ninguém
E se escolhermos a ordem errada?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
88. Redes Bayesianas
Construção de Redes Bayesianas
Qual então é a ordem correta de nós?
Uma dica é começar com quem influencia outros nós, mas
não sofre influência de ninguém
A ordem correta de inclusão de nós é, então:
Primeiro adicione as “causas principais”
Em seguida, as variáveis que elas influenciam
Repita, até atingir as folhas – variáveis que não influenciam ninguém
E se escolhermos a ordem errada?
Suponha que escolhemos a ordem: M,J,A,R,T
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 17 / 42
89. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
90. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
91. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
92. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
P(J|M) = P(J)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
93. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
P(J|M) = P(J)? Não. Se Maria ligar, provavelmente o alarme disparou, o que au-
menta a probabilidade de João ligar
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
94. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
P(J|M) = P(J)? Não. Se Maria ligar, provavelmente o alarme disparou, o que au-
menta a probabilidade de João ligar
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
95. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
P(J|M) = P(J)? Não. Se Maria ligar, provavelmente o alarme disparou, o que au-
menta a probabilidade de João ligar
Note que os candida-
tos a pai de Xi têm
que estar entre os Xi−1
anteriores
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
96. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
97. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
P(A|J, M) = P(A|J)?
P(A|J, M) = P(A|M)?
P(A|J, M) = P(A)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
98. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
P(A|J, M) = P(A|J)?
P(A|J, M) = P(A|M)?
P(A|J, M) = P(A)?
Não. Se ambos ligarem, as chances do
alarme ter disparado são maiores do que
se apenas um ligar, ou se nenhum ligar
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
99. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
P(A|J, M) = P(A|J)?
P(A|J, M) = P(A|M)?
P(A|J, M) = P(A)?
Não. Se ambos ligarem, as chances do
alarme ter disparado são maiores do que
se apenas um ligar, ou se nenhum ligar
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
100. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
101. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo
P(R|M, J, A) = P(R)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
102. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo
P(R|M, J, A) = P(R)? Não. Não é independente das demais
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
103. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo
P(R|M, J, A) = P(R)? Não. Não é independente das demais
P(R|M, J, A) = P(R|A)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
104. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo
P(R|M, J, A) = P(R)? Não. Não é independente das demais
P(R|M, J, A) = P(R|A)? Sim. Se sabemos o estado do
alarme, não importa se João ou Maria ligam
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
105. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo
P(R|M, J, A) = P(R)? Não. Não é independente das demais
P(R|M, J, A) = P(R|A)? Sim. Se sabemos o estado do
alarme, não importa se João ou Maria ligam
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
106. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
107. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
108. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)? Não. Não é independente das demais
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
109. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)? Não. Não é independente das demais
P(T|R, A, J, M) = P(T|A)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
110. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)? Não. Não é independente das demais
P(T|R, A, J, M) = P(T|A)? Não
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
111. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)? Não. Não é independente das demais
P(T|R, A, J, M) = P(T|A)? Não
P(T|R, A, J, M) = P(T|R, A)?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
112. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)? Não. Não é independente das demais
P(T|R, A, J, M) = P(T|A)? Não
P(T|R, A, J, M) = P(T|R, A)? Sim. Se o alarme estiver soando, aumenta a
probabilidade de terremoto. Contudo, se soubermos que houve um roubo, isso
explica o alarme, e a probabilidade do terremoto cai
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
113. Redes Bayesianas
Consequências da Ordem Errada
Devemos incluir
na ordem definida:
M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
P(T|R, A, J, M) = P(T)? Não. Não é independente das demais
P(T|R, A, J, M) = P(T|A)? Não
P(T|R, A, J, M) = P(T|R, A)? Sim. Se o alarme estiver soando, aumenta a
probabilidade de terremoto. Contudo, se soubermos que houve um roubo, isso
explica o alarme, e a probabilidade do terremoto cai
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 18 / 42
114. Redes Bayesianas
Consequências da Ordem Errada
Ordem: M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
Ordem: R,T,A,J,M
Roubo
Alarme
Terremoto
JoãoLiga MariaLiga
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 19 / 42
115. Redes Bayesianas
Consequências da Ordem Errada
Ordem: M,J,A,R,T
MariaLiga
JoãoLiga
Alarme
Roubo Terremoto
Ordem: R,T,A,J,M
Roubo
Alarme
Terremoto
JoãoLiga MariaLiga
Fonte: Adaptado de AIMA. Russell & Norvig.
A nova rede tem duas arestas a mais que a antiga
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 19 / 42
116. Redes Bayesianas
Construção Automática
Vimos o caso em que a estrutura da rede é dada e
temos os valores para todas as variáveis nos
exemplos de treino
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 20 / 42
117. Redes Bayesianas
Construção Automática
Vimos o caso em que a estrutura da rede é dada e
temos os valores para todas as variáveis nos
exemplos de treino
Estimamos as tabelas de probabilidade condicional a partir
dos dados
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 20 / 42
118. Redes Bayesianas
Construção Automática
Vimos o caso em que a estrutura da rede é dada e
temos os valores para todas as variáveis nos
exemplos de treino
Estimamos as tabelas de probabilidade condicional a partir
dos dados
Podemos aprender também a estrutura a partir dos
dados. Ex:
K2: Cooper and Herskovits (1992)
TAN: Friedman et al. (1997)
Simulated Annealing: Bouckaert (1995)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 20 / 42
119. Redes Bayesianas
Inferência em Redes Bayesianas
Considere a rede bayesiana:
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 21 / 42
120. Redes Bayesianas
Inferência em Redes Bayesianas
Considere a rede bayesiana:
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Toda query pode ser respondida
usando-se uma rede bayesiana
através do cálculo das somas dos
produtos das probabilidades con-
dicionais da rede
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 21 / 42
121. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Query: P(r|j, m) =?
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
122. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Query: P(r|j, m) =?
P(r|j, m) =
P(r, j, m)
P(j, m)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
123. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Query: P(r|j, m) =?
P(r|j, m) =
P(r, j, m)
P(j, m)
P(r, j, m) =
X
T={v,f }
X
A={v,f }
P(r, j, m, T, A)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
124. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Como não definimos valores
para T e A, temos que fazer
todas as combinações de
valores possı́veis
Query: P(r|j, m) =?
P(r|j, m) =
P(r, j, m)
P(j, m)
P(r, j, m) =
X
T={v,f }
X
A={v,f }
P(r, j, m, T, A)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
125. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Como não definimos valores
para T e A, temos que fazer
todas as combinações de
valores possı́veis
Query: P(r|j, m) =?
P(r|j, m) =
P(r, j, m)
P(j, m)
P(r, j, m) =
X
T={v,f }
X
A={v,f }
P(r, j, m, T, A)
=
X
T={v,f }
P(r, j, m, T, a) + P(r, j, m, T, ¬a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
126. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Query: P(r|j, m) =?
P(r|j, m) =
P(r, j, m)
P(j, m)
P(r, j, m) =
X
T={v,f }
X
A={v,f }
P(r, j, m, T, A)
=
X
T={v,f }
P(r, j, m, T, a) + P(r, j, m, T, ¬a)
= P(r, j, m, t, a) + P(r, j, m, t, ¬a)+
P(r, j, m, ¬t, a) + P(r, j, m, ¬t, ¬a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
127. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
A query foi reescrita como
uma soma de probabilidades
conjuntas
Query: P(r|j, m) =?
P(r|j, m) =
P(r, j, m)
P(j, m)
P(r, j, m) =
X
T={v,f }
X
A={v,f }
P(r, j, m, T, A)
=
X
T={v,f }
P(r, j, m, T, a) + P(r, j, m, T, ¬a)
= P(r, j, m, t, a) + P(r, j, m, t, ¬a)+
P(r, j, m, ¬t, a) + P(r, j, m, ¬t, ¬a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 22 / 42
128. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
129. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
130. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
A escolha de R e
T deu-se por serem
raı́zes na árvore
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
131. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
132. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
A foi escolhido por de-
pender unicamente das
variáveis já isoladas (T
e R)
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
133. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
= P(r)P(t)P(a|r, t)P(j, m|a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
134. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
j não depende de r e t
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
= P(r)P(t)P(a|r, t)P(j, m|a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
135. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
= P(r)P(t)P(a|r, t)P(j, m|a)
= P(r)P(t)P(a|r, t)P(j|a)P(m|a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
136. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Note que se trata de
cada nó da rede
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
= P(r)P(t)P(a|r, t)P(j, m|a)
= P(r)P(t)P(a|r, t)P(j|a)P(m|a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
137. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
= P(r)P(t)P(a|r, t)P(j, m|a)
= P(r)P(t)P(a|r, t)P(j|a)P(m|a)
Assim, derivando-se as demais de modo similar, teremos:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
138. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
P(r, j, m, t, a) = P(r)P(j, m, t, a|r)
= P(r)P(t)P(j, m, a|r, t)
= P(r)P(t)P(a|r, t)P(j, m|r, t, a)
= P(r)P(t)P(a|r, t)P(j, m|a)
= P(r)P(t)P(a|r, t)P(j|a)P(m|a)
Assim, derivando-se as demais de modo similar, teremos:
P(r, j, m, t, ¬a) = P(r)P(t)P(¬a|r, t)P(j|¬a)P(m|¬a)
P(r, j, m, ¬t, a) = P(r)P(¬t)P(a|r, ¬t)P(j|a)P(m|a)
P(r, j, m, ¬t, ¬a) = P(r)P(¬t)P(¬a|r, ¬t)P(j|¬a)P(m|¬a)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 23 / 42
139. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 24 / 42
140. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
P(r, j, m, t, a) = P(r)P(t)P(a|r, t)P(j|a)P(m|a) ≈ 1, 197 × 10−6
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 24 / 42
141. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
P(r, j, m, t, a) = P(r)P(t)P(a|r, t)P(j|a)P(m|a) ≈ 1, 197 × 10−6
P(r, j, m, t, ¬a) = P(r)P(t)P(¬a|r, t)P(j|¬a)P(m|¬a) ≈ 5 × 10−11
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 24 / 42
142. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
P(r, j, m, t, a) = P(r)P(t)P(a|r, t)P(j|a)P(m|a) ≈ 1, 197 × 10−6
P(r, j, m, t, ¬a) = P(r)P(t)P(¬a|r, t)P(j|¬a)P(m|¬a) ≈ 5 × 10−11
P(r, j, m, ¬t, a) = P(r)P(¬t)P(a|r, ¬t)P(j|a)P(m|a) ≈ 5, 91 × 10−4
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 24 / 42
143. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
P(r, j, m, t, a) = P(r)P(t)P(a|r, t)P(j|a)P(m|a) ≈ 1, 197 × 10−6
P(r, j, m, t, ¬a) = P(r)P(t)P(¬a|r, t)P(j|¬a)P(m|¬a) ≈ 5 × 10−11
P(r, j, m, ¬t, a) = P(r)P(¬t)P(a|r, ¬t)P(j|a)P(m|a) ≈ 5, 91 × 10−4
P(r, j, m, ¬t, ¬a) = P(r)P(¬t)P(¬a|r, ¬t)P(j|¬a)P(m|¬a) ≈ 2, 994 × 10−6
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 24 / 42
144. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Alarme
Roubo Terremoto
JoãoLiga MariaLiga
P(r)
0,001
P(t)
0,002
A P(j|A)
v 0,90
f 0,05
A P(m|A)
v 0,70
f 0,01
R T P(a|R,T)
v v 0,95
v f 0,94
f v 0,29
f f 0,001
Fonte: Adaptado de AIMA. Russell & Norvig.
P(r, j, m, t, a) = P(r)P(t)P(a|r, t)P(j|a)P(m|a) ≈ 1, 197 × 10−6
P(r, j, m, t, ¬a) = P(r)P(t)P(¬a|r, t)P(j|¬a)P(m|¬a) ≈ 5 × 10−11
P(r, j, m, ¬t, a) = P(r)P(¬t)P(a|r, ¬t)P(j|a)P(m|a) ≈ 5, 91 × 10−4
P(r, j, m, ¬t, ¬a) = P(r)P(¬t)P(¬a|r, ¬t)P(j|¬a)P(m|¬a) ≈ 2, 994 × 10−6
P(r, j, m) =
X
T={v,f }
X
A={v,f }
P(r, j, m, T, A) ≈ 0, 00059224
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 24 / 42
145. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que querı́amos P(r|j, m) =
P(r, j, m)
P(j, m)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 25 / 42
146. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que querı́amos P(r|j, m) =
P(r, j, m)
P(j, m)
Já calculamos P(r, j, m)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 25 / 42
147. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que querı́amos P(r|j, m) =
P(r, j, m)
P(j, m)
Já calculamos P(r, j, m)
Falta P(j, m)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 25 / 42
148. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que querı́amos P(r|j, m) =
P(r, j, m)
P(j, m)
Já calculamos P(r, j, m)
Falta P(j, m)
Contudo, P(j, m) não precisa ser calculado
diretamente:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 25 / 42
149. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que querı́amos P(r|j, m) =
P(r, j, m)
P(j, m)
Já calculamos P(r, j, m)
Falta P(j, m)
Contudo, P(j, m) não precisa ser calculado
diretamente:
Podemos calcular P(¬r, j, m) pelo mesmo método que
calculamos P(r, j, m)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 25 / 42
150. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que querı́amos P(r|j, m) =
P(r, j, m)
P(j, m)
Já calculamos P(r, j, m)
Falta P(j, m)
Contudo, P(j, m) não precisa ser calculado
diretamente:
Podemos calcular P(¬r, j, m) pelo mesmo método que
calculamos P(r, j, m)
Nesse caso terı́amos P(¬r, j, m) ≈ 0, 0014919
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 25 / 42
151. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que P(¬r|j, m) + P(r|j, m) = 1
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 26 / 42
152. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Lembre que P(¬r|j, m) + P(r|j, m) = 1
Assim:
P(r|j, m) + P(¬r|j, m) =
P(r, j, m)
P(j, m)
+
P(¬r, j, m)
P(j, m)
= α × [P(r, j, m) + P(¬r, j, m)]
com α =
1
P(j, m)
sendo a constante de normalização
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 26 / 42
153. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Como P(¬r|j, m) + P(r|j, m) = 1, temos que
α × [P(r, j, m) + P(¬r, j, m)] = 1
⇒ α × [0, 00059224 + 0, 0014919] = 1
⇒ α =
1
P(j, m)
≈ 479, 81
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 27 / 42
154. Redes Bayesianas
Inferência em Redes Bayesianas – Exemplo
Como P(¬r|j, m) + P(r|j, m) = 1, temos que
α × [P(r, j, m) + P(¬r, j, m)] = 1
⇒ α × [0, 00059224 + 0, 0014919] = 1
⇒ α =
1
P(j, m)
≈ 479, 81
Levando a
P(r|j, m) = α × P(r, j, m) ≈ 0, 284 = 28, 4%
P(¬r|j, m) = α × P(¬r, j, m) ≈ 0, 716 = 71, 6%
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 27 / 42
155. Redes Bayesianas
Inferência em Redes Bayesianas – Em Suma
Para calcular qualquer combinação de valores:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 28 / 42
156. Redes Bayesianas
Inferência em Redes Bayesianas – Em Suma
Para calcular qualquer combinação de valores:
Identifique que variáveis estão na rede e não receberam valor
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 28 / 42
157. Redes Bayesianas
Inferência em Redes Bayesianas – Em Suma
Para calcular qualquer combinação de valores:
Identifique que variáveis estão na rede e não receberam valor
Faça todas as combinações de valores com essas variáveis +
os valores fixos definidos no problema, somando-as
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 28 / 42
158. Redes Bayesianas
Inferência em Redes Bayesianas – Em Suma
Para calcular qualquer combinação de valores:
Identifique que variáveis estão na rede e não receberam valor
Faça todas as combinações de valores com essas variáveis +
os valores fixos definidos no problema, somando-as
Cada combinação é calculada multiplicando-se as
probabilidades de cada nó na rede, para os valores definidos
pela combinação
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 28 / 42
159. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
160. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
161. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
No pior caso, intratável (NP-difı́cil)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
162. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
No pior caso, intratável (NP-difı́cil)
Solução:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
163. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
No pior caso, intratável (NP-difı́cil)
Solução:
Usar métodos para inferência aproximada
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
164. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
No pior caso, intratável (NP-difı́cil)
Solução:
Usar métodos para inferência aproximada
Amostragem direta
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
165. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
No pior caso, intratável (NP-difı́cil)
Solução:
Usar métodos para inferência aproximada
Amostragem direta
Algoritmos do tipo Markov Chain Monte Carlo (MCMC), como
simulated annealing e Gibbs sampling
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
166. Redes Bayesianas
Inferência em Redes Bayesianas
Problemas:
Método bastante trabalhoso
No pior caso, intratável (NP-difı́cil)
Solução:
Usar métodos para inferência aproximada
Amostragem direta
Algoritmos do tipo Markov Chain Monte Carlo (MCMC), como
simulated annealing e Gibbs sampling
Mesmo esses podem ser NP-difı́ceis, embora em muitos casos úteis
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 29 / 42
170. Redes Bayesianas
Variáveis Contı́nuas
Duas abordagens:
Discretização
Separe os valores contı́nuos em intervalos discretos
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 30 / 42
171. Redes Bayesianas
Variáveis Contı́nuas
Duas abordagens:
Discretização
Separe os valores contı́nuos em intervalos discretos
Há perda de precisão
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 30 / 42
172. Redes Bayesianas
Variáveis Contı́nuas
Duas abordagens:
Discretização
Separe os valores contı́nuos em intervalos discretos
Há perda de precisão
Pode resultar em grande número de valores
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 30 / 42
173. Redes Bayesianas
Variáveis Contı́nuas
Duas abordagens:
Discretização
Separe os valores contı́nuos em intervalos discretos
Há perda de precisão
Pode resultar em grande número de valores
Use uma função de densidade de probabilidade como
aproximação para P(A|B). Ex:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 30 / 42
174. Redes Bayesianas
Variáveis Contı́nuas
Duas abordagens:
Discretização
Separe os valores contı́nuos em intervalos discretos
Há perda de precisão
Pode resultar em grande número de valores
Use uma função de densidade de probabilidade como
aproximação para P(A|B). Ex:
P(x) = 1
σ
√
2π
e−(x−µ)2
2σ2
= N(µ, σ2
)
Fonte: https://coloneltedcampbell.blog/2016/
02/13/the-800-pound-gorillas/normal67/
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 30 / 42
175. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 31 / 42
176. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Suponha que queremos modelar a medição de
temperatura em uma determinada sala, usando um
termômetro
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 31 / 42
177. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Suponha que queremos modelar a medição de
temperatura em uma determinada sala, usando um
termômetro
Temperatura Sensor
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 31 / 42
178. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Suponha que queremos modelar a medição de
temperatura em uma determinada sala, usando um
termômetro
Temperatura Sensor
O termômetro (sensor), contudo, não é perfeito
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 31 / 42
179. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Suponha que queremos modelar a medição de
temperatura em uma determinada sala, usando um
termômetro
Temperatura Sensor
O termômetro (sensor), contudo, não é perfeito
Mede em torno da temperatura real, mas não exatamente
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 31 / 42
180. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Suponha que queremos modelar a medição de
temperatura em uma determinada sala, usando um
termômetro
Temperatura Sensor
O termômetro (sensor), contudo, não é perfeito
Mede em torno da temperatura real, mas não exatamente
S ≈ N(t; σ2
S ) → normal centrada em t, com desvio padrão
σS
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 31 / 42
181. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Agora imagine que queremos poder inferir como
estará a temperatura na sala daqui a alguns
instantes
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 32 / 42
182. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Agora imagine que queremos poder inferir como
estará a temperatura na sala daqui a alguns
instantes
Essa depende, no entanto,
da temperatura atual e da
temperatura externa, dado
que sempre há uma troca
de calor com o exterior
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 32 / 42
183. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Agora imagine que queremos poder inferir como
estará a temperatura na sala daqui a alguns
instantes
Essa depende, no entanto,
da temperatura atual e da
temperatura externa, dado
que sempre há uma troca
de calor com o exterior
Temos então:
Temperatura Sensor
Temperaturaf
Temperaturae
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 32 / 42
184. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Um possı́vel modelo para Tf seria
Temperatura Sensor
Temperaturaf
Temperaturae
Fonte: Coursera (Cont. Variables). Koller.
Tf ≈ N(αT+(1−α)Te, σ2
Tf
)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 33 / 42
185. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Um possı́vel modelo para Tf seria
Temperatura Sensor
Temperaturaf
Temperaturae
Fonte: Coursera (Cont. Variables). Koller.
Tf ≈ N(αT+(1−α)Te, σ2
Tf
)
centrada na média ponderada das
temperaturas no momento atual
(T) e externa (Te)
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 33 / 42
186. Redes Bayesianas – Variáveis Contı́nuas
Usando uma função de densidade:
Um possı́vel modelo para Tf seria
Temperatura Sensor
Temperaturaf
Temperaturae
Fonte: Coursera (Cont. Variables). Koller.
Tf ≈ N(αT+(1−α)Te, σ2
Tf
)
centrada na média ponderada das
temperaturas no momento atual
(T) e externa (Te)
Modelo Linear Gaussiano
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 33 / 42
187. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
188. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
O preço depende do tamanho da
colheita e do fato do governo ter
dado ou não subsı́dios
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
189. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
O preço depende do tamanho da
colheita e do fato do governo ter
dado ou não subsı́dios
Variáveis contı́nuas
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
190. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
O preço depende do tamanho da
colheita e do fato do governo ter
dado ou não subsı́dios
Variáveis contı́nuas
Custo e Colheita
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
191. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
O preço depende do tamanho da
colheita e do fato do governo ter
dado ou não subsı́dios
Variáveis contı́nuas
Custo e Colheita
Variáveis discretas
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
192. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
O preço depende do tamanho da
colheita e do fato do governo ter
dado ou não subsı́dios
Variáveis contı́nuas
Custo e Colheita
Variáveis discretas
Subsı́dio (Sim ou não)
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
193. Redes Hı́bridas
Mistura Discretas + Contı́nuas – Exemplo
Alguém vai comprar frutas,
dependendo do preço
O preço depende do tamanho da
colheita e do fato do governo ter
dado ou não subsı́dios
Variáveis contı́nuas
Custo e Colheita
Variáveis discretas
Subsı́dio (Sim ou não)
Compra (Sim ou não)
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 34 / 42
194. Redes Hı́bridas – Exemplo
Variáveis contı́nuas com pais mistos
Modelamos uma dependência
contı́nua-contı́nua com um
dos pais, para cada valor
discreto do outro pai
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 35 / 42
195. Redes Hı́bridas – Exemplo
Variáveis contı́nuas com pais mistos
Modelamos uma dependência
contı́nua-contı́nua com um
dos pais, para cada valor
discreto do outro pai
P(Custo|Colheita, subsı́dio) =
1
σv
√
2π
e
−(Custo−(av ×Colheita+bv ))2
2σ2
v
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 35 / 42
196. Redes Hı́bridas – Exemplo
Variáveis contı́nuas com pais mistos
Modelamos uma dependência
contı́nua-contı́nua com um
dos pais, para cada valor
discreto do outro pai
P(Custo|Colheita, subsı́dio) =
1
σv
√
2π
e
−(Custo−(av ×Colheita+bv ))2
2σ2
v
P(Custo|Colheita, ¬subsı́dio) =
1
σf
√
2π
e
−(Custo−(af ×Colheita+bf ))2
2σ2
f
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 35 / 42
197. Redes Hı́bridas – Exemplo
Variáveis contı́nuas com pais discretos
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 36 / 42
198. Redes Hı́bridas – Exemplo
Variáveis discretas com pais contı́nuos:
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 37 / 42
199. Redes Hı́bridas – Exemplo
Variáveis discretas com pais contı́nuos:
A distribuição deve seguir um
degrau suave
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 37 / 42
200. Redes Hı́bridas – Exemplo
Variáveis discretas com pais contı́nuos:
A distribuição deve seguir um
degrau suave
Espera-se que o cliente
compre se o custo for baixo e
não compre se for alto, sendo
que a probabilidade entre
esses valores varia
suavemente
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 37 / 42
201. Redes Hı́bridas – Exemplo
Variáveis discretas com pais contı́nuos:
A distribuição deve seguir um
degrau suave
Espera-se que o cliente
compre se o custo for baixo e
não compre se for alto, sendo
que a probabilidade entre
esses valores varia
suavemente
Fonte: Slides de AIMA. Russell & Norvig.
Um meio de fazer tais degraus é usar a integral da
distribuição normal
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 37 / 42
202. Redes Hı́bridas – Exemplo
Variáveis discretas com pais contı́nuos:
Φ(x) =
Z x
−∞
N(0, 1)(x)dx
Fonte: Slides de AIMA. Russell & Norvig.
P(comprar|Custo = c) = Φ(
−c + µ
σ
)
O degrau vai ocorrer ao redor de µ
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 38 / 42
203. Redes Bayesianas
Justificativa para a Gaussiana
Pode ser vista como um degrau normal, cuja
localização precisa está sujeita a ruı́do aleatório
normalmente distribuı́do:
Fonte: Slides de AIMA. Russell & Norvig.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 39 / 42
204. Redes Bayesianas
Alternativa à Integral da Gaussiana
Usar uma função sigmoide:
P(comprar|Custo = c) =
1
1 + e−2−c+µ
σ
Fonte: Slides de AIMA. Russell & Norvig.
Similar à integral da Gaussiana,
porém mais alongada
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 40 / 42
205. Referências
Russell, S.; Norvig P. (2010): Artificial Intelligence: A Modern Approach.
Prentice Hall. 3a ed.
Slides do livro: aima.eecs.berkeley.edu/slides-pdf/
Mitchell, T.M.: Machine Learning. McGraw-Hill. 1997.
Murphy, K. P.: Machine Learning: A Probabilistic Perspective. MIT
Press. 2012.
Cover, T.M.; Thomas, J.A.: Elements of Information Theory. 2 ed.
Wiley. 2006.
Alpaydın, E.: Introduction to Machine Learning. 2 ed. MIT Press. 2010.
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 41 / 42
206. Referências
Bouckaert, R.R.: Bayesian Belief Networks: from Construction to
Inference. Ph.D. thesis. University of Utrecht. 1995.
Cheng, J.; Greiner, R.: Comparing bayesian network classifiers.
Proceedings UAI, 101–107. 1999.
Cooper, G.; Herskovits, E.: A Bayesian method for the induction of
probabilistic networks from data. Machine Learning, 9: 309–347. 1992.
Duda, R.O.: Hart, P.E.: Stork, D.G.: Pattern Classification. 2 ed. Wiley.
2001.
Friedman, N.; Geiger, D.; Goldszmidt, M.: Bayesian Network Classifiers.
Machine Learning, 29: 131–163. 1997.
Koller, D.: https://pt.coursera.org/lecture/
probabilistic-graphical-models/continuous-variables-wkNvM
Norton Trevisan Roman(norton@usp.br) 16 de maio de 2019 42 / 42