Post Del 2 Bibimwestre

447 views
420 views

Published on

post para el segundo bimeste te inteligencia artificial

Published in: Business
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
447
On SlideShare
0
From Embeds
0
Number of Embeds
11
Actions
Shares
0
Downloads
9
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Post Del 2 Bibimwestre

  1. 1. Por: Rodrigo Granda
  2. 2. Introdución <ul><li>Un modelo oculto de Markov ( HMM) es un modelo estadístico en el que se asume que el sistema a modelar es un proceso de Markov de parámetros desconocidos. </li></ul><ul><li>El objetivo es determinar los parámetros desconocidos (ocultos) de dicha cadena a partir de los parámetros </li></ul>
  3. 3. Introdución <ul><li>El estado visible del modelo de Markov es directamente para el observador, por lo que los estados son los únicos parámetros </li></ul><ul><li>Cada estado tiene una distribución de probabilidad sobre los posibles símbolos de salida . </li></ul><ul><li>la secuencia de símbolos generada por un HMM proporciona cierta información acerca de la secuencia de estados. </li></ul>
  4. 4. Arquitectura de un modelo oculto de Markov <ul><li>Los Modelos Ocultos de Markov (HMM) representan un proceso en el cual se refleja probabilidades que generan una secuencia de acciones o eventos que se pueden observarse. </li></ul><ul><li>Un HMM se puede considerar como la red bayesiana dinámica más simple </li></ul>
  5. 5. Arquitectura de un modelo oculto de Markov <ul><li>utiliza una arquitectura de Modelos Ocultos de Markov. Esta arquitectura viene dada por el número de estados (variable aleatoria) que lo componen y las transiciones o conexiones entre los estados. </li></ul><ul><li>Existen dos modelos que representan la arquitectura de un HMM: Modelos HMM de izquierda a derecha y Modelos HMM ergódicos. </li></ul>
  6. 6. Tres problemas básicos de HMM
  7. 7. CADENAS DE MARKOV <ul><li>Una cadena de Markov es un proceso estocástico de Markov discreto. Un proceso estocástico se llama de Markov si conocido el presente, el futuro no depende del pasado, esto quiere decir, que dada una variable estocástica que denota el estado del proceso en el tiempo entonces la probabilidad de transición en el momento t se define como: </li></ul><ul><li>P[qt = st | qt-1 = st-1] </li></ul>
  8. 8. Algoritmos básicos de los HMM <ul><li>En la siguiente figura se muestra una red bayesiana correspondiente a un HMM de primer orden, representada mediante un grafo a cíclico dirigido, donde los nodos representan las variables aleatorias y donde la ausencia de una flecha entre dos variables que es independencia condicional. </li></ul>
  9. 11. Referencias <ul><li>X. Huang, A. Acero y H. Hon, Spoken Language Processing, Prentice-Hall, 2001. </li></ul><ul><li>F. Jelinek, Statistical Methods for Speech Recognition. MIT Press, 1997. </li></ul><ul><li>L. Rabiner y B. Juang, Fundamentals of Speech Recognition, Prentice-Hall, 1993. </li></ul><ul><li>6.345 </li></ul>

×