Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Programacion concurrente

8,405 views

Published on

Published in: Technology, Business

Programacion concurrente

  1. 1. Programación Concurrente Índice 1. INTRODUCCIÓN........................................................................................................................1 2. CONCEPTO DE PROGRAMACIÓN CONCURRENTE .......................................................1 2.1. PROGRAMA Y PROCESO .........................................................................................................1 2.2. CONCURRENCIA ....................................................................................................................2 2.3. PROGRAMACIÓN CONCURRENTE ...........................................................................................3 3. BENEFICIOS DE LA PROGRAMACIÓN CONCURRENTE...............................................3 3.1. VELOCIDAD DE EJECUCIÓN ....................................................................................................3 3.2. SOLUCIÓN DE PROBLEMAS INHERENTEMENTE CONCURRENTES .............................................3 3.2.1 Sistemas de control ..........................................................................................................3 3.2.2 Tecnologías Web..............................................................................................................4 3.2.3 Aplicaciones basadas en interfaces de usuarios..............................................................4 3.2.4 Simulación .......................................................................................................................4 3.2.5 SGBD ...............................................................................................................................4 4. CONCURRENCIA Y ARQUITECTURAS HARDWARE......................................................4 4.1.1 Sistemas monoprocesador ...............................................................................................4 4.1.2 Sistemas multiprocesador ................................................................................................5 5. EJECUCIÓN CONCURRENTE ................................................................................................7 5.1. ¿QUÉ SE PUEDE EJECUTAR CONCURRENTEMENTE? ................................................................7 5.2. CONDICIONES DE BERNSTEIN ................................................................................................7 5.3. ESPECIFICAR LA EJECUCIÓN CONCURRENTE ..........................................................................9 5.3.2 Grafos de precedencia .....................................................................................................9 5.3.3 Sentencias COBEGIN-COEND .......................................................................................9 6. CARACTERÍSTICAS DE LOS SISTEMAS CONCURRENTES ........................................10 6.1. ORDEN DE EJECUCIÓN DE LAS INSTRUCCIONES ....................................................................10 6.1.2 Indeterminismo ..............................................................................................................10 7. PROBLEMAS INHERENTES A LA PROGRAMACIÓN CONCURRENTE....................11 7.1. EXCLUSIÓN MUTUA .............................................................................................................11 7.1.2 Condición de sincronización..........................................................................................12 8. CORRECCIÓN DE PROGRAMAS CONCURRENTES ......................................................13 8.2. PROPIEDADES DE SEGURIDAD ..............................................................................................14 8.3. PROBLEMAS DE VIVACIDAD .................................................................................................14 RESUMEN ..........................................................................................................................................15 9. EJERCICIOS ............................................................................................................................16 Índice de Figuras Figura 2.1: Programa y procesos.______________________________________________________2 Figura 2.2: Un programa dando lugar a más de un proceso. _________________________________3 Figura 4.1: Concurrencia.____________________________________________________________5 i
  2. 2. Figura 4.2: Sistema monoprocesador con variables compartidas. _____________________________5 Figura 4.3: Paralelismo. _____________________________________________________________6 Figura 4.4: Sistema multiprocesador con memoria compartida. ______________________________6 Figura 4.5: Sistema distribuido. _______________________________________________________6 Figura 5.1: Grafo de precedencia. _____________________________________________________9 Figura 6.1: Orden total. ____________________________________________________________10 Figura 6.2: Orden parcial. __________________________________________________________10 Figura 6.3: Orden parcial: grafo de precedencia y código. _________________________________10 Figura 7.1: Traza de una posible ejecución concurrente para P1 y P2. ________________________12 Figura 7.2: Sección crítica (1)._______________________________________________________12 Figura 7.3: Sección crítica (2)._______________________________________________________12 Figura 7.4: Sistema compuesto por los procesos lector, gestor e impresor._____________________13 Figura 8.1: Juego del pañuelo. _______________________________________________________14 ii
  3. 3. Programacion Concurrente 1. Introducción Los primeros programas concurrentes fueron los propios Sistemas Operativos de multiprogramación en los que un solo procesador de gran capacidad debía repartir su tiempo entre muchos usuarios. Para cada usuario, la sensación era que el procesador estaba dedicado para él. Durante la década de los sesenta y setenta esto fue así. La programación de sistemas con capacidades de concurrencia se hacía a bajo nivel, en ensamblador, pues aparte de no disponer de lenguajes de alto nivel con capacidades de concurrencia, se primaba la supuesta eficiencia del código escrito directamente en ensamblador. La aparición en 1972 del lenguaje de alto nivel Concurrent Pascal [Brinch-Hansen, 1975], desarrollado por Brinch Hansen, se encargó de romper este mito y abrir la puerta a otros lenguajes de alto nivel que incorporaban concurrencia. Desde entonces la programación concurrente ha ido ganando interés y actualmente se utiliza muy a menudo en la implementación de numerosos sistemas. Tres grandes hitos se nos antojan importantes para que la programación concurrente actualmente sea tan importante: • La aparición del concepto de thread o hilo que hace que los programas puedan ejecutarse con mayor velocidad comparados con aquellos que utilizan el concepto de proceso. • La aparición más reciente de lenguajes como Java, lenguaje orientado a objetos de propósito general que da soporte directamente a la programación concurrente mediante la inclusión de primitivas específica. • La aparición de Internet que es un campo abonado para el desarrollo y la utilización de programas concurrentes. Cualquier programa de Internet en el que podamos pensar tales como un navegador, un chat, etc. están programados usando técnicas de programación concurrente. En lo que resta de capítulo introduciremos el concepto de programación concurrente, los beneficios que reporta, el hardware en el que puede ejecutarse, la forma de especificarlo en un lenguaje y las características, problemas y propiedades de corrección de un programa concurrente. 2. Concepto de programación concurrente Según el diccionario de la Real Academia Española, una de las acepciones de la palabra concurrencia es “Acaecimiento o concurso de varios sucesos en un mismo tiempo”. Si en esta definición sustituimos la palabra suceso por proceso ya tenemos una primera aproximación a lo que va a ser la concurrencia en computación. Puesto que en la definición anterior y en la que daremos posteriormente de la programación concurrente aparece la palabra proceso y ésta está basada en el concepto de programa, se hace necesario dejar claro en este punto qué se va a entender tanto por programa como por proceso. 2.1. Programa y proceso Un programa es un conjunto de instrucciones. Es, simplemente, un texto que consiste en una secuencia de líneas de código que dicen qué hacer con un conjunto de datos de entrada para producir algún tipo de salida. Se trata de algo estático. Puede compararse con el concepto de clase en el ámbito de la programación Orientada a Objetos (POO). Para que el programa pueda hacer algo de verdad hay que ponerlo en ejecución. Una primera definición incompleta de proceso sería la de un programa en ejecución. Es decir, un proceso es algo más que las líneas de código de un programa. Un proceso es algo dinámico. Está representado por el valor del contador de programa, el contenido de los registros del procesador, una pila y una sección de datos que contiene variables globales. Un proceso es una entidad dinámica. Puede compararse con el concepto de objeto en el ámbito de la POO. De igual manera que en POO puede haber múltiples objetos de una clase determinada, aquí puede haber múltiples procesos que corresponden al mismo programa. Como ejemplo consideremos un servidor de aplicaciones donde reside una aplicación de navegador de Internet y existen varios usuarios ejecutando MGB 1
  4. 4. Programacion Concurrente ese navegador, cada uno de ellos navegando por un sitio diferente. Cada instancia del programa es un proceso. Cada proceso tendrá su propio contador de programa, así como sus propios registros, pila y variables. En la Figura 2.1: puede observarse el ejemplo mencionado donde existe un programa almacenado en disco y tres instancias de ese programa ejecutándose. Son tres procesos, cada uno con su propia información. Proceso p1 Proceso p2 Proceso p3 SO Navegador Internet Figura 2.1: Programa y procesos. 2.2. Concurrencia Dos procesos serán concurrentes cuando la primera instrucción de uno de ellos se ejecuta después de la primera instrucción del otro y antes de la última. Es decir, existe un solapamiento en la ejecución de sus instrucciones. No tienen por qué ejecutarse exactamente al mismo tiempo, simplemente es suficiente con el hecho de que exista un intercalado entre la ejecución de sus instrucciones. Si se ejecutan al mismo tiempo los dos procesos, entonces tenemos una situación de programación paralela. La programación concurrente es un paralelismo potencial. Dependerá del hardware subyacente como veremos más adelante. De esta forma, en la figura 2.1 tendríamos tres procesos concurrentes si se diese la circunstancia anterior. Se trata de un primer nivel de concurrencia, donde existen 3 procesos independientes ejecutándose al mismo tiempo sobre el SO. Cada proceso corresponde a una instancia de un programa. Sin embargo, esto sólo es una parte de la verdad. No necesariamente un proceso tiene por qué ser todo el programa en ejecución sino que puede ser parte de él. Dicho de otra forma, un programa, al ponerse en ejecución, puede dar lugar a más de un proceso, cada uno de ellos ejecutando una parte del programa. Continuando con el miso ejemplo, el programa de navegador de Internet puede dar lugar a más de un proceso: uno que controla las acciones del usuario con la interfaz, otro que hace las peticiones al servidor, etc. De esta forma, la Figura 2.1 se convertiría en la figura 2.2, suponiendo que se crean dos procesos cada vez que se ejecuta el programa. Todos estos procesos también pueden ejecutarse concurrentemente. MGB 2
  5. 5. Programacion Concurrente p1.1 p1.2 p2.1 p2.2 p3.1 p3.2 SISTEMA OPERATIVO navegador Internet Figura 2.2: Un programa dando lugar a más de un proceso. Una definición bastante extendida es que un proceso es un programa en ejecución, pero no es muy exacto pues realmente un programa puede estar compuesto por diversos procesos. Un SO no deja de ser un programa con varios procesos que se ejecutan al mismo tiempo. Cuando varios procesos se ejecutan concurrentemente puede haber procesos que colaboren para un determinado fin mientras que puede haber otros que compitan por los recursos del sistema. Incluso aquellos procesos que colaboran deberán competir a la hora de obtener tiempo de procesador. Por ejemplo, en la Figura 2.2:, p1.1 y p1.2 pueden estar colaborando para hacerle la vida más fácil al usuario mientras que p1.2 y p2.2 pueden estar compitiendo para acceder al disco. Para llevar a cabo las tareas de colaboración y competencia por los recursos se hace necesaria la introducción de mecanismos de comunicación y sincronización entre procesos. Del estudio de estos mecanismos trata la programación concurrente. 2.3. Programación concurrente Es la disciplina que se encarga del estudio de las notaciones que permiten especificar la ejecución concurrente de las acciones de un programa, así como las técnicas para resolver los problemas inherentes a la ejecución concurrente, que son básicamente comunicación y sincronización. Como puede intuirse, el trabajar con procesos concurrentes va a añadir complejidad a la tarea de programar. Cabe entonces hacerse la pregunta de ¿cuáles son los beneficios que aporta la programación concurrente? 3. Beneficios de la programación concurrente Existen diversos motivos por los que la programación concurrente es útil. Destacaremos aquí dos de ellos: velocidad de ejecución y solución de problemas de naturaleza concurrente. Otros beneficios adicionales como el mejor aprovechamiento de la CPU saldrán a lo largo del capítulo. 3.1. Velocidad de ejecución Cuando la puesta en ejecución de un programa conlleva la creación de varios procesos y el sistema consta de más de u procesador, existe la posibilidad de asignar un proceso a cada procesador de tal forma que el programa se ejecuta de una forma más rápida. Los programas de cálculo numérico son grandes beneficiados de este hecho. 3.2. Solución de problemas inherentemente concurrentes Existen algunos problemas cuya solución es más fácil de abordar mediante el uso de programación concurrente pues su naturaleza es eminentemente concurrente. Destacamos algunos de ellos, pero para una discusión más detallada se sugiere consultar [Bacon, 1998] 3.2.1 Sistemas de control Son aquellos sistemas en los que hay una captura de datos, normalmente a través de sensores, un análisis de esos datos y una posible actuación posterior en función del resultado del análisis. La recolección de datos se puede estar haciendo de diversas entidades físicas como por ejemplo edificios o estancias dentro de edificios. No sería tolerable un sistema secuencial que vaya capturando los datos uno MGB 3
  6. 6. Programacion Concurrente a uno de las distintas estancias. Podría ocurrir que al llegar a capturar los datos de la última estancia, la primera ya haya sido pasto de las llamas. Tanto la captura de datos desde cada estancia como su tratamiento y posterior actuación son candidatos a ser procesos distintos y de naturaleza concurrente. Esto nos garantiza que nuestro sistema de control pueda responder a las alarmas que se produzcan. 3.2.2 Tecnologías Web La mayoría de los programas relacionados con la Web son concurrentes: los servidores Web que son capaces de atender concurrentemente múltiples conexiones de usuarios; los programas de chat que permiten mantener la conversación de varios usuarios; los servidores de correo que permiten que múltiples usuarios puedan mandar y recibir mensajes al mismo tiempo; los propios navegadores que permiten que un usuario pueda estar haciendo una descarga mientras navega por otras páginas, o se ejecuta un applet de Java, etc. 3.2.3 Aplicaciones basadas en interfaces de usuarios. La concurrencia en este tipo de aplicaciones va a permitir que el usuario pueda interaccionar con la aplicación aunque ésta esté realizando alguna tarea que consume mucho tiempo de procesador. Un proceso controla la interfaz mientras otro hace la tarea que requiere un uso intensivo de la CPU. Esto facilitará que tareas largas puedan ser abortadas a mitad de ejecución. 3.2.4 Simulación Los programas secuenciales encuentran problemas al simular sistemas en los que existen objetos físicos que tienen un comportamiento autónomo independiente. La programación concurrente permitirá modelar esos objetos físicos y ponerlos en ejecución de forma independiente y concurrente, sincronizándolos de la forma apropiada. 3.2.5 SGBD En Sistemas Gestores de Bases de Datos la concurrencia juega un papel muy importante cuando se va a permitir a varios usuarios interactuar con el sistema. Cada usuario puede ser visto como un proceso. Obviamente hay que implementar la política adecuada para evitar situaciones en las que dos usuarios modifican al mismo tiempo un registro. Sin embargo, a varios usuarios que quieran acceder a un mismo registro para consultarlo y no modificarlo, debe permitírseles un acceso concurrente. 4. Concurrencia y arquitecturas hardware. Parece obvio pensar que si dos procesos van a ejecutarse de forma concurrente vamos a necesitar dos procesadores, uno para cada proceso. Sin embargo, esto no tiene por qué ser así. Dependerá, aunque no exclusivamente, del hardware disponible y su topología. Cuando hablamos de hardware nos estamos refiriendo fundamentalmente al número de procesadores en el sistema. Así, se puede hacer una primera distinción entre aquellos sistemas donde sólo hay un procesador, sistema monoprocesador, y aquellos en los que hay más de un procesador, sistemas multiprocesador. En ambos sistemas es posible tener concurrencia. 4.1.1 Sistemas monoprocesador Incluso en un sistema con un solo procesador podemos tener una ejecución concurrente de procesos. Evidentemente todos los procesos no pueden estar ejecutándose al mismo tiempo sobre el procesador, sólo uno de ellos podrá estar haciéndolo, pero la sensación que le da al usuario o grupo de usuarios es la de estar ejecutándose al mismo tiempo. Esto es debido a que el Sistema Operativo (SO) va alternando el tiempo de procesador entre los distintos procesos. De esta forma, cuando un proceso que ocupa el procesador en un momento determinado necesita hacer una operación de entrada/salida, puede abandonar el procesador para que otro proceso pueda ocuparlo y aprovechar ciclos de procesador. En la Figura 4.1: puede verse cómo el tiempo de procesador es repartido entre tres procesos. Esta forma de gestionar los procesos en un sistema monoprocesador recibe el nombre de multiprogramación y es otro de los beneficios de la programación concurrente: un mayor aprovechamiento del procesador. Esto es lo que ocurre en los SO que estamos acostumbrados a manejar con los ordenadores de sobremesa tales como Windows o Linux. MGB 4
  7. 7. Programacion Concurrente P1 P2 P3 Figura 4.1: Concurrencia. Aparte de la situación en la que un proceso puede aprovechar ciclos de CPU mientras otro proceso hace operaciones de entrada/salida, existen otros posibles beneficios del uso de concurrencia en sistemas monoprocesador: La posibilidad de proporcionar un servicio interactivo a múltiples usuarios. Este sería el caso por ejemplo de un Sistema Operativo multiusuario ejecutándose sobre una máquina monoprocesador. La posibilidad de dar una solución adecuada a problemas que son de naturaleza eminentemente concurrente tal y como se mencionó en la sección 3.2. En un sistema monoprocesador todos los procesos comparten la misma memoria. La forma de sincronizar y comunicar procesos será pues mediante el uso de variables compartidas. Tal y como muestra la Figura 4.2: cuando un proceso A quiere comunicar algo a un proceso B lo deja en una variable conocida y compartida por ambos procesos de tal forma que el proceso B lo pueda leer. Variable compartida MEMORIA común a todos los procesos escribe lee proceso proceso proceso A B C SISTEMA OPERATIVO procesador Figura 4.2: Sistema monoprocesador con variables compartidas. 4.1.2 Sistemas multiprocesador Un sistema multiprocesador es aquel en el que existe más de un procesador. Esto permite que exista un paralelismo real entre los procesos ya que idealmente cada procesador podría ejecutar un proceso. Si tuviésemos un sistema con tres procesadores en vez de tener la Figura 4.1 el resultado podría ser el de la 4.3 en el que realmente los tres procesos se ejecutan de forma paralela. MGB 5
  8. 8. Programacion Concurrente P1 P2 P3 Figura 4.3: Paralelismo. Sin embargo, y siendo realistas, lo normal en un sistema concurrente es tener más procesos que procesadores por lo que, de alguna forma, tiene que haber algún esquema de multiprogramación en uno o más procesadores. Dentro de los sistemas multiprocesadores se puede hacer una pequeña clasificación: Sistemas fuertemente acoplados: tanto los procesadores como otros dispositivos (incluida la memoria) están conectados a un bus. Esto permite que todos los procesadores puedan compartir la misma memoria. Puede ocurrir que cada procesador tenga su propia memoria local, pero la sincronización y comunicación entre procesos se hará mediante variables situadas en la memoria compartida, es decir, mediante variables compartidas (4.4). Sistemas débilmente acoplados: aquí no existe una memoria compartida por los procesadores. Cada procesador tiene su propia memoria local y está conectado con otros procesadores mediante algún tipo de enlace de comunicación. Un tipo especial de estos sistemas lo constituyen los sistemas distribuidos, que están formados por un conjunto de nodos distribuidos geográficamente y conectados de alguna forma. Estos nodos pueden ser a su vez mono o multiprocesador. El sistema distribuido por antonomasia es Internet. nodo Variable B compartida MEMORIA común a todos los procesos paso de mensaje escribe lee procesador proceso proceso proceso A B C nodo A nodo C SISTEMA OPERATIVO procesador procesador procesador procesador procesador procesador Figura 4.5: Sistema distribuido. Figura 4.4: Sistema multiprocesador con memoria compartida. Suele denominarse multiproceso a la gestión de varios procesos dentro de un sistema multiprocesador donde cada procesador puede acceder a una memoria común y procesamiento distribuido a la gestión de varios procesos en procesadores separados, cada uno con su memoria local. Mientras que en los sistemas de multiproceso el esquema de la Figura 4.2: se puede seguir manteniendo tal y como se muestra en la Figura 4.4, en el procesamiento distribuido este esquema ya no es válido. En un sistema distribuido la forma natural de comunicar y sincronizar procesos es mediante el MGB 6
  9. 9. Programacion Concurrente uso de paso de mensaje tal y como se aprecia en la Figura 4.5:. El paso de mensaje no sólo es aplicable a los sistemas distribuidos sino que también puede usarse en sistemas de multiproceso y de multiprogramación. Es por esta razón por la que actualmente los mecanismos de paso de mensaje son más utilizados en los lenguajes concurrentes, aparte de la buena sintonía que este mecanismo guarda con la Programación Orientada a Objetos. No en vano, la unión de ambos paradigmas, concurrente y objetos, ha dado lugar a lo que se conoce como Programación Concurrente Orientada a Objetos. El lenguaje Java no deja de ser un ejemplo. Para terminar este apartado es bueno dejar claras algunas definiciones adicionales que a veces llevan a confusión y en las que no todos los autores pueden estar de acuerdo: un programa concurrente define un conjunto de acciones que pueden ser ejecutadas simultáneamente un programa paralelo es un tipo de programa concurrente diseñado para ejecutarse en un sistema multiprocesador un programa distribuido es un tipo de programa paralelo que está diseñado para ejecutarse en un sistema distribuido, es decir, en una red de procesadores autónomos que no comparten una memoria común Nos ocuparemos de los programas concurrentes, no haciendo ningún tipo de suposición sobre el número de procesadores y su topología. Un programa concurrente debe funcionar independientemente de que lo ejecutemos en un sistema monoprocesador o en un sistema multiprocesador, ya sea éste fuerte o débilmente acoplado. 5. Ejecución concurrente Una vez que sabemos qué es un programa concurrente y las distintas arquitecturas hardware que pueden soportarlo, es el momento de ver qué partes de un programa se pueden ejecutar concurrentemente y qué partes no, y cómo especificarlo en un lenguaje de programación. 5.1. ¿Qué se puede ejecutar concurrentemente? Lo veremos a través de un ejemplo. Consideramos el siguiente fragmento de programa: x := x +1 ; y := x +2 ; Está claro que la primera sentencia se debe ejecutar antes de la segunda. Consideremos ahora el siguiente fragmento: x := 1 ; y := 2 ; z := 3 ; Ahora, el orden en que se ejecuten no interviene en el resultado final. Si tuviéramos tres procesadores se podrían ejecutar cada línea en un procesador y así incrementaríamos la velocidad del sistema. 5.2. Condiciones de Bernstein Para poder determinar si dos conjuntos de instrucciones se pueden ejecutar de forma concurrente, se definen en primer lugar los siguientes conjuntos: • L(Sk) = {a1, a2, …..an}, como el conjunto de lectura del conjunto de instrucciones Sk y que está formado por todas las variables cuyos valores son referenciados (se leen) durante la ejecución de las instrucciones en Sk. • E(Sk) = {a1, a2, …..an}, como el conjunto de escritura del conjunto de instrucciones Sk y que está formado por todas las variables cuyos valores son referenciados (se escriben) durante la ejecución de las instrucciones en Sk. Para que dos conjuntos de instrucciones Si y Sj se puedan ejecutar concurrentemente, se tiene que cumplir que: 7
  10. 10. Programacion Concurrente 1. L( S i ) ∩ E ( S j ) = φ 2. E ( S i ) ∩ L( S j ) = φ 3. E (Si ) ∩ E (S j ) = φ Como ejemplo supongamos que tenemos: S1 a := x + y ; S2 b := z – 1 ; S3 c := a – b ; S4 w := c + 1 ; Utilizando las condiciones de Bernstein veremos qué sentencias pueden ejecutarse de forma concurrente y cuáles no. Para ello, en primer lugar calculamos los conjuntos de lectura y escritura: L(S1) ={x, y} E(S1) = {a} L(S2) ={z} E(S2) = {b} L(S3) ={a, b} E(S3) = {c} L(S4) ={c} E(S4) = {w} Ahora aplicamos las condiciones de Bernstein a cada par de sentencias: Entre S1 y S2: Entre S1 y S3: L( S1 ) ∩ E ( S 2 ) = φ L( S1 ) ∩ E ( S 3 ) = φ E ( S1 ) ∩ L( S 2 ) = φ E ( S1 ) ∩ L( S 3 ) = a ≠ φ E ( S1 ) ∩ E ( S 2 ) = φ E ( S1 ) ∩ E ( S 3 ) = φ Entre S1 y S4: Entre S2 y S4: L( S1 ) ∩ E ( S 4 ) = φ L( S 2 ) ∩ E ( S 4 ) = φ E ( S1 ) ∩ L( S 4 ) = φ E ( S 2 ) ∩ L( S 4 ) = a ≠ φ E ( S1 ) ∩ E ( S 4 ) = φ E(S2 ) ∩ E(S4 ) = φ Entre S2 y S3: Entre S3 y S4: L( S 2 ) ∩ E ( S 3 ) = φ L( S 3 ) ∩ E ( S 4 ) = φ E ( S 2 ) ∩ L( S 3 ) = b ≠ φ E ( S 3 ) ∩ L( S 4 ) = c ≠ φ E (S 2 ) ∩ E(S3 ) = φ E (S3 ) ∩ E (S 4 ) = φ De todo esto se deduce la siguiente tabla en la que puede verse qué pares de sentencias pueden ejecutarse de forma concurrente: 8
  11. 11. Programacion Concurrente S1 S2 S3 S4 S1 Si No Si S2 No Si S3 No S4 Una vez que sabemos qué se puede y qué no se puede ejecutar concurrentemente, se hace necesario algún tipo de notación para especificar qué partes de un programa pueden ejecutarse concurrentemente y qué partes no. 5.3. Especificar la ejecución concurrente S1 S2 S3 S4 Figura 5.1: Grafo de precedencia. 5.3.2 Grafos de precedencia Se trata de una notación gráfica. Es un grafo dirigido acíclico. Cada nodo representará una parte (conjunto de instrucciones) del sistema. Una flecha desde A hasta B representa que B sólo puede ejecutarse cuando A haya finalizado. Si aparecen dos nodos en paralelo querrá decir que se pueden ejecutar concurrentemente. Para el ejemplo anterior el grafo de precedencia sería el de la figura 5.1 5.3.3 Sentencias COBEGIN-COEND Todas aquellas acciones que puedan ejecutarse concurrentemente las introducimos dentro del par cobegin/coend. El ejemplo anterior quedaría de la siguiente forma: begin cobegin a := x + y ; b := z + 1 ; coend c := a – b; w := c + 1 ; end 9
  12. 12. Programacion Concurrente Las instrucciones dentro del par cobegin/coend pueden ejecutarse en cualquier orden, mientras que el resto se ejecuta de manera secuencial. 6. Características de los sistemas concurrentes La ejecución de sistemas concurrentes tiene algunas características que los diferencian claramente de los sistemas secuenciales. Destacamos dos: 6.1. Orden de ejecución de las instrucciones En los programas secuenciales hay un orden total en la ejecución de las líneas de código. Ante un conjunto de datos de entrada se sabe siempre por dónde va a ir el programa (su flujo de ejecución). En la figura 6.1, por muchas veces que se ejecute el programa, el hilo de ejecución siempre tendrá el mismo recorrido, es decir, las instrucciones siempre se ejecutarán en el mismo orden. hilo de ejecución i1 i2 i1 i1 programa i2 i2 i3 i4 i3 i3 i6 i4 i4 i6 i6 i5 i7 i5 i5 i7 i7 Figura 6.1: Orden total. Figura 6.2: Orden parcial. En los programas concurrentes, sin embargo, hay un orden parcial. Ante el mismo conjunto de datos de entrada no se puede saber cuál va a ser el flujo de ejecución. En cada ejecución del programa el flujo puede ir por distinto sitio. En la figura 6.2, donde se supone que todas las instrucciones pueden ejecutarse concurrentemente, podemos ver cómo en dos ejecuciones distintas el orden en el que se ejecutan las instrucciones puede variar. En la Figura 6.3 podemos observar el grafo de precedencia y el código con el par cobegin/coend para el caso de la Figura 6.2. begin cobegin i1; i2; i3; i4; i5; i6; i7; i1 i2 i3 i4 i5 i6 i7 coend; end. Figura 6.3: Orden parcial: grafo de precedencia y código. 6.1.2 Indeterminismo Este orden parcial lleva a que los programas concurrentes puedan tener un comportamiento indeterminista, es decir, puedan arrojar diferentes resultados cuando se ejecutan repetidamente sobre el mismo conjunto de datos de entrada. Esto suele llevar a muchas sorpresas cuando uno se inicia en la programación concurrente. 10
  13. 13. Programacion Concurrente Consideremos el siguiente programa en el que dos procesos se ejecutan concurrentemente para sumar 1 a la variable x. Esa variable x es compartida por ambos procesos pues ha sido declarada como global. La sintaxis utilizada es la del lenguaje Pascal-FC. program Incognita; var x: integer; process P1; var i: integer; begin begin x:=0; for i:=1 to 5 do x:=x+1; cobegin end; P1; P2; process P2; coend; var j: integer; end. begin for j:=1 to 5 do x:=x+1 end; ¿Qué valor tendrá la variable x al terminar el programa? Todo hace pensar que el valor debería ser 10. Sin embargo, el valor de x puede ser 5, 6, 7, 8, 9 ó 10. Esta característica hace muy difícil la labor de depuración en los programas concurrentes. Podemos ejecutar el programa 1.000 veces y podría dar como resultado 10 y al ejecutarlo 1.001 veces nos podría dar 8. Intuitivamente podemos ver que el error se encuentra en el acceso incontrolado a una variable compartida por parte de 2 procesos. En la siguiente sección vemos más a fondo la raíz del problema. 7. Problemas inherentes a la programación concurrente Dos son básicamente los problemas con los que nos vamos a encontrar a la hora de confeccionar un programa concurrente: el problema de la exclusión mutua y el de la condición de sincronización. 7.1. Exclusión mutua Este problema es el que se nos da en el ejemplo anterior de los bucles. Antes de pasar a explicar el problema hay que tener en cuenta que lo que realmente se ejecuta concurrentemente son las líneas de código generadas por el compilador. En nuestro caso, supongamos que una instrucción como x:=x+1 da lugar a tres instrucciones de un lenguaje ensamblador cualquiera, que es lo que realmente va a ejecutar el procesador. Tendríamos los siguientes pasos: 1. Cargar desde memoria el valor de x en un registro (LOAD X R1). 2. Incrementar el valor del registro (ADD R1 1). 3. Almacenar el contenido del registro en la posición de memoria de x (STORE R1 X). Así pues, lo que realmente se va a ejecutar de forma concurrente dentro de cada bucle es: P1 P2 (1) LOAD X R1 (1) LOAD X R1 (2) ADD R1 1 (2) ADD R1 1 (3) STORE R1 X (3) STORE R1 X Cada una de estas instrucciones es atómica o indivisible, es decir, se va a ejecutar en un ciclo de reloj del procesador sin poder ser interrumpidas. Puesto que hemos dicho que en programación concurrente existe un orden parcial, cualquier intercalado entre estas instrucciones es válido. En la Figura 7.1: puede verse una traza para un intercalado particular de estas seis líneas de código en el que el valor final de la variable x no es el esperado. Se ha perdido un incremento. Si tenemos en cuenta que estas líneas de 11
  14. 14. Programacion Concurrente código están en un bucle ahora podremos entender por qué son posible resultados menores de 10 para la variable x. Todo dependerá del número de incrementos perdidos, que en cada ejecución puede ser distinto e incluso no producirse. x 0 0 0 0 1 1 1 P1 1 2 3 P2 1 2 3 Tiempo Figura 7.1: Traza de una posible ejecución concurrente para P1 y P2. En cualquier caso, el hecho de que P1 y P2 no puedan ejecutarse concurrentemente viene determinado por las condiciones de Bernstein pues sus conjuntos de escritura no son disjuntos. El problema estriba en que dos procesos distintos están accediendo al mismo tiempo a una variable compartida entre los dos para actualizarla. Nos hubiese interesado que las tres líneas de cada proceso se hubiesen ejecutado en un solo paso, sin ningún tipo de intercalado con las otras líneas del otro proceso. A la porción de código que queremos que se ejecute de forma indivisible se le denomina sección crítica. Nos interesa asegurarnos que las secciones críticas se ejecuten en exclusión mutua, es decir, sólo uno de los procesos debe estar en la sección crítica en un instante dado. En la 7.2 puede verse cómo cuando los dos procesos llegan a la sección crítica sólo uno de ellos podrá entrar, teniendo que esperar el otro. En la Figura 7.3: puede verse que una vez que un proceso ha salido de la sección crítica, el otro proceso puede entrar y de esta forma seguir ejecutándose los dos de manera concurrente. P1 P2 P1 P2 Sección crítica Sección crítica x:=x+1 x:=x+1 Figura 7.2: Sección crítica (1). Figura 7.3: Sección crítica (2). La programación concurrente deberá ofrecernos mecanismos para especificar qué partes del código han de ejecutarse en exclusión mutua con otras partes. 7.1.2 Condición de sincronización Para ilustrar el problema de la condición de sincronización supongamos ahora un sistema en el que existen tres procesos (Figura 7.4:) cuyo comportamiento es el siguiente: lector, que va almacenando en un buffer las imágenes capturadas desde una cámara gestor, que va recogiendo las imágenes desde el buffer, las trata y las va colocando en una cola de impresión impresor, que va imprimiendo las imágenes colocadas en la cola de impresión 12
  15. 15. Programacion Concurrente cámara impresora LECTOR GESTOR IMPRESOR buffer cola de impresión Figura 7.4: Sistema compuesto por los procesos lector, gestor e impresor. Supongamos que los tres procesos se ejecutan de manera concurrente en un bucle infinito tal y como muestra el siguiente pseudocódigo: process lector; process gestor; process impresor; begin begin begin repeat repeat repeat captura imagen; coge imagen de buffer; coge imagen de cola; almacena en buffer; trata imagen; imprime imagen; forever almacena imagen en cola; forever end; forever end; end; El lector debería apreciar que la solución al problema está incompleta. Debería tratar de responder a las siguientes preguntas: ¿Qué ocurre cuando el proceso lector o el proceso gestor tratan de poner una imagen y el buffer o la cola están llenos? ¿Qué ocurre cuando el proceso gestor o el proceso impresor tratan de coger una imagen y el buffer o la cola están vacíos? Hay situaciones en las que un recurso compartido por varios procesos, como puede ser el buffer o la cola de impresión en nuestro ejemplo, se encuentra en un estado en el que un proceso no puede hacer una determinada acción con él hasta que no cambie su estado. A esto se le denomina condición de sincronización. La programación concurrente ha de proporcionarnos mecanismos para bloquear procesos que no puedan hacer algo en un momento determinado a la espera de algún evento (Ej. que el buffer deje de estar vacío), pero también que permita desbloquearlos cuando ese evento haya ocurrido. 8. Corrección de programas concurrentes El orden parcial e indeterminismo en la ejecución de las instrucciones hace que la corrección de un programa concurrente sea más difícil de conseguir que la de un programa secuencial. Para que un programa concurrente sea correcto, además de cumplir las especificaciones funcionales que deba cumplir, debe satisfacer una serie de propiedades inherentes a la concurrencia. Podemos agrupar esas propiedades en: Propiedades de seguridad: son aquellas que aseguran que nada malo va a pasar durante la ejecución del programa. Propiedades de viveza: son aquellas que aseguran que algo bueno pasará eventualmente durante la ejecución del programa. Para entender en qué consisten estas propiedades, consideremos el famoso juego del pañuelo en el que hay dos equipos, A y B, y un juez con un pañuelo (Figura 8.1:). Cada jugador de un equipo tiene un número del 1 al 3. No puede haber dos jugadores en el mismo equipo con el mismo número. El juez dice 13
  16. 16. Programacion Concurrente un número y entonces los dos rivales con el mismo número salen corriendo a coger el pañuelo. El jugador que lo coja ha de volver corriendo a su sitio sin que su rival logre tocarle la espalda. En este escenario explicaremos las distintas propiedades de vivacidad y seguridad. el 2 Figura 8.1: Juego del pañuelo. 8.2. Propiedades de seguridad Exclusión mutua. Hay recursos en el sistema que deben ser accedidos en exclusión mutua tal y como hemos visto anteriormente. Cuando esto ocurre, hay que garantizar que si un proceso adquiere el recurso, otros procesos deberán esperar a que sea liberado. De lo contrario, el resultado puede ser imprevisto. En nuestro ejemplo, el pañuelo ha de adquirirse en exclusión mutua, o lo coge un jugador o lo coge otro. Si lo cogen los dos a la vez puede llegar a romperse, llevando a un malfuncionamiento del sistema. Condición de sincronización. Hay situaciones en las que un proceso debe esperar por la ocurrencia de un evento para poder seguir ejecutándose. Cuando esto ocurre, hay que garantizar que el proceso no prosigue hasta que no se produce el evento. De lo contrario, el resultado puede ser imprevisto. En nuestro ejemplo, un jugador ha de esperar a que digan su número para poder salir corriendo. Si sale corriendo antes llevaría a un malfuncionamiento del sistema. Interbloqueo. Se produce una situación de interbloqueo cuando todos los procesos están esperando porque ocurra un evento que nunca se producirá. Hay que garantizar que no se producen este tipo de situaciones. En nuestro ejemplo se produciría si un jugador se guarda el pañuelo y se va para su casa. El juez esperaría porque le devolvieran el pañuelo y los jugadores esperarían porque el juez dijese su número, pero ninguno de estos eventos va a ocurrir nunca. Se suele conocer también con el nombre de deadlock o abrazo mortal. 8.3. Problemas de vivacidad Interbloqueo activo: El anterior interbloqueo también suele conocerse como pasivo. Se produce una situación de interbloqueo activo cuando un sistema ejecuta una serie de instrucciones sin hacer ningún progreso. Hay que garantizar que no ocurra este tipo de situaciones. En nuestro ejemplo se produciría si dos jugadores, al intentar coger el pañuelo, amagan una y otra vez, pero no se deciden a cogerlo. Mientras que la detección de un intebloqueo pasivo es más o menos simple, la detección de un interbloqueo activo es muy complicada. Se suele conocer también con el nombre de livelock. A partir de ahora cada vez que hablemos de interbloqueo nos referiremos al interbloqueo pasivo. Inanición: Se produce una situación de este tipo cuando el sistema en su conjunto hace progresos, pero existe un grupo de procesos que nunca progresan pues no se les otorga tiempo de procesador para avanzar. En nuestro ejemplo podría darse si el juez nunca dice el número de un jugador en concreto. Hay que garantizar que haya una cierta equidad en el trato a los procesos a no ser que las especificaciones del sistema digan lo contrario. Se trata de un problema también difícil de detectar. Su suele conocer también con el nombre de starvation. 14
  17. 17. Programacion Concurrente Resumen En el presente capítulo se han presentado los conceptos fundamentales de la programación concurrente. Se ha definido el concepto de proceso, de concurrencia y de programación concurrente. Se han visto las distintas plataformas hardware donde poder ejecutar programas concurrentes: monoprocesador y multiprocesador y, en función de ello, se ha visto la diferencia por un lado entre multiprogramación, multiproceso y procesamiento distribuido y, por otro lado, entre programas concurrentes, paralelos y distribuidos. El hecho de que dos procesos sean concurrentes no implica necesariamente que se ejecuten exactamente al mismo tiempo. Eso dependerá del hardware subyacente. En cualquier caso, e independientemente del hardware, los beneficios de la programación concurrente pueden resumirse en: mayor velocidad de ejecución, mejor aprovechamiento de la CPU y soluciones óptimas a problemas de naturaleza eminentemente concurrente. También se ha visto en este capítulo cómo determinar cuándo un conjunto de instrucciones puede ejecutarse de manera concurrente mediante las condiciones de Bernstein. Una vez determinado qué se puede ejecutar concurrentemente, hemos visto cómo especificarlo de dos formas distintas: mediante el par cobegin/coend y mediante grafos de precedencia. Los programas concurrentes se caracterizan por un orden parcial en la ejecución de sus instrucciones frente al orden total presente en los programas secuenciales. Este orden parcial nos lleva a un indeterminismo en el resultado arrojado por la ejecución de los programas concurrentes. Este indeterminismo hace que la depuración y corrección de programas concurrentes no sea una tarea precisamente trivial. Dos son los grandes problemas a resolver en problemas de naturaleza concurrente: el problema de la exclusión mutua y el problema de la condición de sincronización. Un programa concurrente será correcto si, además de contemplar sus especificaciones funcionales donde irán implícitas condiciones de exclusión mutua y de sincronización, es capaz de evitar que se produzcan situaciones de interbloqueo y de inanición de procesos. 15
  18. 18. Programacion Concurrente 9. Ejercicios 1. Construir un programa concurrente que se corresponda con el grafo de precedencia de la siguiente figura utilizando el par cobegin/coend S1 S2 S3 S4 S5 S6 S7 2. Dado el siguiente trozo de código obtener su grafo de precedencia correspondiente. s0; cobegin s1; begin s2; cobegin s3;s4 coend; s5 end; s6 coend; s7 3. Construir un programa concurrente que explote al máximo la concurrencia para copiar un fichero f en un fichero g utilizando el par cobegin/coend. 4. Usando las condiciones de Bernstein, construir el grafo de precedencia del siguiente trozo de código y el programa concurrente correspondiente usando el par cobegin/coend. S1: cuad := x*x; S2: m1 := a*cuad; S3: m2 := b*x; S4: z := m1 + m2; S5: y := z + c; 5. Construir dos programas concurrentes que se correspondan con los de la siguiente figura utilizando el par cobegin/coend. 16
  19. 19. Programacion Concurrente S1 S1 S2 S3 S2 S5 S3 S4 S4 S5 S6 S7 S6 Cuestiones breves 1. ¿Cuál es la ventaja de la concurrencia en los sistemas monoprocesador? 2. ¿Cuáles son las diferencias entre programación concurrente, paralela y distribuida? 3. ¿Cuáles son las diferencias entre multiprogramación, multiproceso y procesamiento distribuido? 4. ¿Cuáles son los dos problemas principales inherentes a la programación concurrente? 5. ¿Qué es una sección crítica? 6. ¿Cuáles son las características de un programa concurrente? 7. ¿Qué se entiende por un programa concurrente correcto? 17

×