1 / 129

. 2 . P ROGRAMACIÓN DE S ISTEMAS DE M EMORIA C OMPARTIDA (SMP): OPENMP

. 2 . P ROGRAMACIÓN DE S ISTEMAS DE M EMORIA C OMPARTIDA (SMP): OPENMP. Índice. 1. Introducción Programación de Aplicaciones Paralelas. OpenMP. 2. Regiones paralelas. 3. Sincronización de los threads . 4. Tareas. 5 . Otras cuestiones.

bell
Download Presentation

. 2 . P ROGRAMACIÓN DE S ISTEMAS DE M EMORIA C OMPARTIDA (SMP): OPENMP

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. . 2 . PROGRAMACIÓN DE SISTEMAS DE MEMORIA COMPARTIDA (SMP): OPENMP

  2. Índice • 1. Introducción • Programación de Aplicaciones Paralelas. OpenMP. • 2. Regiones paralelas. • 3. Sincronización de los threads. • 4. Tareas. • 5. Otras cuestiones.

  3. Los sistemas paralelos MIMD presentan dos arquitecturas diferenciadas: memoria compartida y memoria distribuida. El modelo de memoria utilizado hace que la programación de aplicaciones paralelas para cada caso sea esencialmente diferente.

  4. Alternativas: •usar un lenguaje paralelo nuevo, o modificar la sintaxis de uno secuencial (HPF, UPC… / Occam, Fortran M…). •usar un lenguaje secuencial junto con directivas al compilador para especificar el paralelismo. • usar un lenguaje secuencial junto con rutinas de librería.

  5. En el caso de memoria compartida, tenemos más opciones: > trabajar con procesos (UNIX) > usar threads: Pthreads (POSIX), Java, OpenMP…

  6. código proceso j heap pila IR rutinasinterrup. ficheros •  procesos concurrentes: Fork / Join •  gran overhead, son muy “caros”

  7. código heap thread 1 thread 2 pila pila rutinasinterrup. IR IR ficheros •  los threads son más “ligeros” •  la sincronización (variables compartidas) es sencilla •  habitual en el S.O. (solaris, windows XP…)

  8. Para los sistemas de memoria compartida, de tipo SMP, la herramienta más extendida es OpenMP. • Para los sistemas de memoria distribuida, el estándar actual de programación, mediante paso de mensajes, es MPI. En ambos casos hay más opciones, y en una máquina más general utilizaremos probablemente una mezcla de ambos.

  9. Qué esperamos de una “herramienta” para programar aplicaciones en máquinas de memoria distribuida (MPI): • un mecanismo de identificación de los procesos. •una librería de funciones de comunicación punto a punto:send, receive… •funciones de comunicación global: broadcast,, scatter, reduce... •alguna función para sincronizar procesos.

  10. Qué esperamos de una “herramienta” para programar aplicaciones en máquinas de memoria compartida: • un mecanismo de identificación de los threads. •un método para declarar las variables como privadas (private) o compartidas (shared). •un mecanismo para poder definir “regionesparalelas”, bien sea a nivel de función o a nivel de iteración de bucle. • facilidades para sincronizar los threads.

  11. Qué no esperamos de una “herramienta” para programar aplicaciones paralelas: •un analizador de dependencias entre tareas (queda en manos del programador).

  12. Introducción OpenMP es el estándar actual para programar aplicaciones paralelas en sistemas de memoria compartida tipo SMP. Entre otras características, es portable, permite paralelismo “incremental”, y es independiente del hardware. Participan en su desarrollo los fabricantes más importantes: HP, IBM, SUN, SG...

  13. Introducción • No se trata de un nuevo lenguaje de programación, sino de un API (application programming interface) formado por: directivas para el compilador unas pocas funciones de biblioteca algunas variables de entorno

  14. Introducción • El uso de directivas facilita la portabilidad y la “paralelización incremental”. • En entornos que no usan OpenMP, las directivas son tratadas como simples comentarios e ignoradas.

  15. Introducción • Los lenguajes base con los que trabaja OpenMP son Fortran y C/C++. • Las directivas de OpenMP se especifican de la siguiente manera: • para C: #pragma omp <directiva> • para Fortran!$omp <directiva>

  16. thread master thread master región paralela Introducción • El modelo de programación paralela que aplica OpenMP es Fork - Join. • En un determinado momento, el thread master genera P threads que se ejecutan en paralelo. FORK JOIN

  17. Introducción • Todos los threads ejecutan la misma copiadel código (SPMD). A cada thread se le asigna un identificador (tid). • Para diferenciar las tareas ejecutadas por cada thread: • if (tid == 0) then ... else ... •  constructores específicos de reparto de tareas (work sharing).

  18. Ejemplo main () { for (i=0; i<1000; i++) { A[i] = A[i] +1; B = B + A[i]; } printf(“ B = %d\n”, B); } #pragma omp parallel private(tid) { } tid = omp_get_thread_num(); printf (“ thread %d en marcha \n”, tid); #pragma omp for schedule(static) reduction(+:B) if (tid==0)

  19. Introducción • Aspectos básicos a tratar en la paralelización de código: 1Partiendo de un programa serie, hay que especificar qué partes del código pueden ejecutarse en paralelo (análisis de dependencias) estructuras de control paralelo reparto de tareas

  20. Introducción • Aspectos básicos a tratar en la paralelización de código: 2 Incluir la comunicación adecuada entre los diferentes threads que van a ejecutarse en paralelo. En este caso, a través de variables compartidas en el espacio común de memoria.  ámbito de las variables

  21. Introducción • Aspectos básicos a tratar en la paralelización de código: 3Sincronizar convenientemente la ejecución de los hilos. Las funciones principales de sincronización son las habituales: exclusión mutua y sincronización por eventos (por ejemplo, global mediante barreras).

  22. Introducción • En resumen, partiendo de un programa serie, para obtener un programa paralelo OpenMP hay que añadir: • directivasque especifican una región paralela (código replicado), reparto de tareas(específicas para cada thread), o sincronización entre threads. • funciones de biblioteca(include <omp.h>): para gestionar o sincronizar los threads.

  23. Índice • 1.Introducción. Programación de Aplicaciones Paralelas. OpenMP. • 2.Regiones paralelas. • Gestión de threads y ámbito de las vbles. • Reparto de tareas. • Bucles FOR. Planificación de las iteraciones. • Secciones paralelas. • 3. Sincronización de los threads. • 4. Tareas. • 5. Otras cuestiones.

  24. Regiones paralelas • Una región paralela define un trozo de código que va a ser replicado y ejecutado en paralelo por varios threads. La directiva correspondiente es (C): #pragma omp parallel [cláusulas] { código } El trozo de código que se define en una región paralela debe ser unbloque básico.

  25. Regiones paralelas • El número de threads que se generan para ejecutar una región paralela se controla: a. estáticamente, mediante una variable de entorno: >export OMP_NUM_THREADS=4 b. en ejecución, mediante una función de librería: omp_set_num_threads(4); c. en ejecución, mediante una cláusula del “pragma parallel”: num_threads(4)

  26. Regiones paralelas • ¿Quién soy yo? ¿Cuántos somos? • Cada proceso paralelo se identifica por un número de thread. El 0 es el thread máster. • Dos funciones de librería: tid = omp_get_thread_num(); devuelve el identificador del thread. nth = omp_get_num_threads(); devuelve el número de hilos generados.

  27. barrera Regiones paralelas • > Un ejemplo sencillo: ... #define N 12 int i, tid, nth, A[N]; main () { for (i=0; i<N; i++) A[i]=0; #pragma omp parallel { nth = omp_get_num_threads (); tid = omp_get_thread_num (); printf ("Thread %d de %d en marcha \n", tid, nth); A[tid] = 10 + tid; printf (" El thread %d ha terminado \n", tid); } for (i=0;i<N;i++) printf (“A(%d)=%d\n”,i,A[i]); } private(tid,nth) shared(A)

  28. Regiones paralelas • El thread máster tiene como contexto el conjunto de variables del programa, y existe a lo largo de toda la ejecución del programa. • Al crearse nuevos threads, cada uno incluye su propio contexto, con su propia pila, utilizada como stack frame para las rutinas invocadas por el thread.

  29. Regiones paralelas • La compartición de variables es el punto clave en un sistema paralelo de memoria compartida, por lo que es necesario controlar correctamente el ámbito de cada variable. • Las variables globales son compartidas por todos los threads. Sin embargo, algunas variables deberán ser propias de cada thread, privadas.

  30. R.P.: Cláusulas de ámbito Para poder especificar adecuadamente el ámbito de validez de cada variable, se añaden una serie de cláusulas a la directiva parallel, en las que se indica el carácter de las variables que se utilizan en dicha región paralela.

  31. R.P.: Cláusulas de ámbito • La región paralela tiene como extensión estática el código que comprende, y como extensión dinámica el código que ejecuta (incluidas rutinas). • Las cláusulas que incluye la directiva afectan únicamente al ámbito estático de la región. • Las cláusulas principales que definen el ámbito de las variables son las siguientes:

  32. R.P.: Cláusulas de ámbito • shared(X) Se declara la variable X como compartida por todos los threads. Sólo existe una copia, y todos los threads acceden y modifican dicha copia. private(Y) Se declara la variable Y como privada en cada thread. Se crean Pcopias, una por thread (sin inicializar!). Se destruyen al finalizar la ejecución de los threads.

  33. Xno está inicializada! Xno mantiene el nuevo valor R.P.: Cláusulas de ámbito • > Ejemplo: X = 2; Y = 1; #pragma omp parallel shared(Y) private(X,Z) { Z = X * X + 3; X = Y * 3 + Z; } printf(“X = %d \n”, X);

  34. R.P.: Cláusulas de ámbito • Se declaran objetos completos: no se puede declarar un elemento de un array como compartido y el resto como privado. • Por defecto, las variables son shared. • Cada thread utiliza su propia pila, por lo que las variables declaradas en la propia región paralela (o en una rutina) son privadas.

  35. R.P.: Cláusulas de ámbito • firstprivate( ) Las variables privadas no están inicializadas al comienzo (ni dejan rastro al final). Para poder pasar un valor a estas variables hay que declararlas firstprivate.

  36. valores dentro de la región paralela? X = Y = Z = valores fuera de la región paralela? X = Y = Z = R.P.: Cláusulas de ámbito • > Ejemplo: 0 X = Y = Z = 0; #pragma omp parallel private(Y) firstprivate(Z) { ... X = Y = Z = 1; } ... ? 0 1 ? (0) ? (0)

  37. R.P.: Cláusulas de ámbito • reduction( ) • Las operaciones de reducción son típicas en muchas aplicaciones paralelas. Utilizan variables a las que acceden todos los procesos y sobre las que se efectúa alguna operación de “acumulación” en modo atómico (RMW). • Caso típico: la suma de los elementos de un vector. • Si se desea, el control de la operación puede dejarse en manos de OpenMP, declarando dichas variables de tipo reduction.

  38. La propia cláusula indica el operador de reducción a utilizar. R.P.: Cláusulas de ámbito • > Ejemplo: #pragma omp parallel private(X) reduction(+:sum) { X = … … sum= sum+ X; … } OJO: no se sabe en qué orden se va a ejecutar la operación --> debe ser conmutativa (cuidado con el redondeo).

  39. R.P.: Cláusulas de ámbito • default (none/shared) • none: obliga a declarar explícitamente el ámbito de todas las variables. Útil para no olvidarse de declarar ninguna variable (da error al compilar). • shared: las variables sin “declarar” son shared (por defecto). • (En Fortran, también default(private): las variables sin declarar son privadas)

  40. R.P.: Cláusulas de ámbito • Variables de tipothreadprivate • Las cláusulas de ámbito sólo afectan a la extensión estática de la región paralela.Por tanto, una variable privada sólo lo es en la extensión estática (salvo que la pasemos como parámetro a una rutina). Si se quiere que una variable sea privada pero en toda la extensión dinámica de la región paralela, entonces hay que declararla mediante la directiva: #pragma omp threadprivate (X)

  41. R.P.: Cláusulas de ámbito • Las variables de tipo threadprivatedeben ser “estáticas” o globales (declaradas fuera, antes, del main). Hay que especificar su naturaleza justo después de su declaración. • Las variablesthreadprivate no desaparecen al finalizar la región paralela (mientras no se cambie el número de threads); cuando se activa otra región paralela, siguen activas con el valor que tenían al finalizar la anterior región paralela.

  42. R.P.: Cláusulas de ámbito • copyin(X) • Declarada una variable como threadprivate, un thread no puede acceder a la copia threadprivate de otro thread (ya que es privada). • La cláusula copyin permite copiar en cada threadel valor de esa variable en el thread máster al comienzo de la región paralela.

  43. R.P.: Otras cláusulas • if (expresión) • La región paralela sólo se ejecutará en paralelo si la expresión es distinta de 0. • Dado que paralelizar código implica costes añadidos (generación y sincronización de los threads), la cláusula permite decidir en ejecución si merece la pena la ejecución paralela según el tamaño de las tareas (por ejemplo, en función del tamaño de los vectores a procesar).

  44. R.P.: Otras cláusulas • num_threads(expresión) • Indica el número de hilos que hay que utillizar en la región paralela. • Precedencia: vble. entorno >> función >> cláusula

  45. R.P.: Resumen cláusulas • Cláusulas de la región paralela • - shared,private,firstprivate(var) • reduction(op:var) • default(shared/none) • copyin(var) • - if (expresión) • - num_threads(expresión)

  46. Índice • 1.Introducción. Programación de Aplicaciones Paralelas. OpenMP. • 2.Regiones paralelas. • Gestión de threads y ámbito de las vbles. • Reparto de tareas. • Buclesfor. Planific.de las iteraciones • Secciones paralelas. • 3. Sincronización de los threads. • 4. Tareas. • 5. Otras cuestiones.

  47. Paralelización de bucles. Los bucles son uno de los puntos de los que extraer paralelismo de manera “sencilla” (paralelismo de datos, domain decomposition, grano fino). Obviamente, la simple replicación de código no es suficiente. Por ejemplo, Reparto de tareas #pragma omp parallel shared(A) private(i) { for (i=0; i<100; i++) A[i] = A[i] + 1; } ?

  48. Reparto de tareas Tendríamos que hacer algo así: #pragma omp parallel shared(A) private(tid,nth,ini,fin,i) {tid = omp_get_thread_num(); nth = omp_get_num_threads(); ini = tid * 100/nth; fin = (tid+1) * 100/nth; for (i=ini; i<fin; i++) A[i] = A[i] + 1; } !

  49. El reparto de trabajo entre los threads se puede hacer mediante una estrategia de tipo SPMD. - Utilizando el identificador de los threads y mediante sentencias if. - Definiendo una cola de tareas y efectuando un reparto dinámico de las mismas (self-scheduling, p. e.). Reparto de tareas OpenMP ofrece una alternativa “automática” al reparto de tareas “manual”, mediante el uso de directivas específicas de reparto de tareas (work sharing).

  50. Las opciones de que disponemos son: Reparto de tareas 1. Directiva for, para repartir la ejecución de las iteraciones de un bucle entre todos los threads (bloques básicos y número de iteraciones conocido). 2. Directiva sections, para definir trozos o secciones de una región paralela a repartir entre los threads. 3. Directiva single, para definir un trozo de código que sólo debe ejecutar un thread.

More Related