Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Programacion dinamica

772 views

Published on

Published in: Technology
  • Be the first to comment

  • Be the first to like this

Programacion dinamica

  1. 1. Computabilidad y Complejidad de Algoritmos Programación Dinámica Preparado por: Solineth Batista Maycol Requenez
  2. 2. Existe una serie de problemas cuyas soluciones pueden ser expresadas recursivamente en términos matemáticos, y posiblemente la manera más natural de resolverlos es mediante un algoritmo recursivo. Sin embargo, el tiempo de ejecución de la solución recursiva, normalmente de orden exponencial y por tanto impracticable, puede mejorarse substancialmente mediante la Programación Dinámica.
  3. 3. En el diseño Divide y Vencerás para resolver un problema lo dividimos en subproblemas independientes, los cuales se resuelven de manera recursiva para combinar finalmente las soluciones y así resolver el problema original. El inconveniente se presenta cuando los subproblemas obtenidos no son independientes sino que existe solapamiento entre ellos; entonces es cuando una solución recursiva no resulta eficiente por la repetición de cálculos que conlleva.
  4. 4. En estos casos es cuando la Programación Dinámica nos puede ofrecer una solución aceptable. La eficiencia de esta técnica consiste en resolver los subproblemas una sola vez, guardando sus soluciones en una tabla para su futura utilización. La Programación Dinámica no sólo tiene sentido aplicarla por razones de eficiencia, sino porque además presenta un método capaz de resolver de manera eficiente problemas cuya solución ha sido abordada por otras técnicas y ha fracasado.
  5. 5. Donde tiene mayor aplicación la Programación Dinámica es en la resolución de problemas de optimización. En este tipo de problemas se pueden presentar distintas soluciones, cada una con un valor, y lo que se desea es encontrar la solución de valor óptimo (máximo o mínimo).
  6. 6. La solución de problemas mediante esta técnica se basa en el llamado principio de óptimo enunciado por Bellman en 1957 y que dice: “En una secuencia de decisiones óptima toda subsecuencia ha de ser también óptima”.
  7. 7.  Knapsack Problem (Problema de la Mochila)  Algoritmo de Needleman–Wunsch
  8. 8.  El problema de la mochila (knapsack problem) consiste encontrar un subconjunto de productos que echar en una mochila de modo de maximizar el beneficio y no sobrepasar la capacidad de la mochila.  Se puede resumir el problema de la siguiente forma: maximizar sujeto a con xi l i k l bi xi i k pi xi {0,1} , k P i l  Donde l es la cantidad de objetos disponibles, bi es el beneficio que ofrece el objeto i, pi es el peso del objeto i, xi nos indica si colocamos o no el objeto i dentro de la mochila y P es el peso máximo que soporta la mochila.
  9. 9.  Digamos que tenemos l objetos con pesos p1, …,pl y beneficios b1, …,bl.  Definimos A(i, j) como el valor máximo que puede ser obtenido con los primeros i objetos pesando a lo más j.  Note que:  A(0, j) = 0 y A(i, 0) = 0 para cualquier i ≤ l y j ≤ P.  Si pi > j entonces A(i, j) = A(i – 1, j).  Si pi ≤ j entonces A(i, j) tiene dos opciones incluir o no incluir el objeto i.  Si no lo incluimos entonces tendrá un valor de A(i – 1, j).  Si lo incluimos entonces tendrá un valor de A(i – 1, j – pi) + bi.
  10. 10.  Expresado formalmente tenemos la siguiente definición recursiva. 0 A i, j si i 0oj A i 1, j si pi j si pi j max A i 1, j , A i j, j p1 bi 0
  11. 11.  Ejemplo:  Tenemos una caja que soporta 15 libras en la cual vamos a colocar objetos para vender. Hay disponibles tres objetos:  Objeto #1 pesa 9 libras y se vende a $38  Objeto #2 pesa 6 libras y se vende a $40  Objeto #3 pesa 5 libras y se vende a $24  ¿Cuál es la ganancia máxima que podemos obtener?
  12. 12.  Continuación ejemplo:  La información recopilada del algoritmo se puede resumir en la siguiente tabla: 0 p1 9 0 p2 6 0 p3 5 0 1 0 0 0 2 0 0 0 3 0 0 0 4 0 0 0 5 0 0 24 6 0 40 40 7 0 40 40 8 0 40 40 9 38 40 40 10 38 40 40 11 38 40 64 12 38 40 64 13 38 40 64 14 38 40 64 15 38 78 78
  13. 13.  Continuación ejemplo:  La información recopilada del algoritmo se puede resumir en la siguiente tabla: 0 p1 9 0 p2 6 0 p3 5 0 1 0 0 0 2 0 0 0 3 0 0 0 4 0 0 0 5 0 0 24 6 0 40 40 7 0 40 40 8 0 40 40 9 38 40 40 10 38 40 40 11 38 40 64 12 38 40 64 13 38 40 64 14 38 40 64 15 38 78 78
  14. 14.  Uno de los problemas de todos los días en Bioinformática es la comparación o alineamiento de secuencias. Necesitamos saber que tan similares son dos secuencias, permitiendo que haya pequeñas diferencias ya sea de reemplazo o de borrado entre una y otra.  El algoritmo de Needleman-Wunsch sirve para realizar alineamientos globales de dos secuencias.  Fue propuesto por primera vez en 1970, por Saul Needleman y Christian Wunsch.  El algoritmo calcula puntajes de similitud global entre dos secuencias.
  15. 15.  Ejemplo  Consideremos el conjunto {A, G, C, T} sobre el cual definimos dos cadenas s1 = GAATTCAGTTA y s2 = GGATCGA.  El objetivo del algoritmo es alinearlas de tal forma que puedan identificarse huecos, inserciones o cambios en los caracteres de las secuencias.  Para el ejemplo un alineamiento es el siguiente: s
  16. 16.  El algoritmo de Needleman-Wunsch busca generar el alineamiento para lo cual coloca todas las posibles combinaciones de las dos secuencias s1 y s2 más una fila y columna de ceros para la generación de la recursividad, en una matriz M.  Definiendo a n = |s1| y a m = |s2| entonces la matriz M será de tamaño (m +1) (n + 1).
  17. 17.  Luego procedemos a rellenar la matriz M para lo cual primero definimos una matriz S de semejanza de caracteres.
  18. 18.  Si definimos Si;j como una función tal que devuelve la similitud de los caracteres de la posición i de s1 y j de s2 y a W como la penalización por hueco que en este caso es simplemente 0, tendremos listo las funciones necesarias para llenar la matriz M.  Para proceder a rellenar M tendrán la siguiente ley de formación: Mi, j  Donde:  Mi 1, j 1  Mi  M i, j 1, j 1 max M i 1, j 1 Si , j , M i , j 1 W , Mi 1, j Si , j Indica la coincidencia o no coincidencia de los caracteres de las secuencias. W Indica la suma en horizontal más la penalización por hueco. W Indica la suma en vertical más la penalización por hueco. W
  19. 19.  El procedimiento siguiente es describir el patrón que se dibuja desde el extremo inferior derecho de la matriz M y se avanza a la izquierda o a la izquierda y arriba tomando siempre el valor que le precedió al construir M.
  20. 20. Dando el alineamiento: G A A T T C A G T T A | | | | | | G G A ― T C ― G ― ― A

×