Supports exécutifs
This presentation is the property of its rightful owner.
Sponsored Links
1 / 57

Supports exécutifs pour grappes de machines NUMA Travaux récents et perspectives PowerPoint PPT Presentation


  • 57 Views
  • Uploaded on
  • Presentation posted in: General

Supports exécutifs pour grappes de machines NUMA Travaux récents et perspectives. Raymond Namyst Projet LaBRI-INRIA RUNTIME. Environnements de programmation parallèle, bibliothèques spécialisées. Support exécutif. Système d’exploitation. Supercalculateurs, grappes, grilles.

Download Presentation

Supports exécutifs pour grappes de machines NUMA Travaux récents et perspectives

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Supports ex cutifs pour grappes de machines numa travaux r cents et perspectives

Supports exécutifspour grappes de machines NUMATravaux récents et perspectives

Raymond NamystProjet LaBRI-INRIA RUNTIME


La recherche du temps perdu dans les supports d ex cution

Environnements de programmation parallèle, bibliothèques spécialisées

Support exécutif

Système d’exploitation

Supercalculateurs, grappes, grilles

À la recherche du temps perdu...... dans les supports d'exécution

  • Problématique de recherche du projet Runtime

    • Fournir des abstractions et des techniques permettant de garantir la « portabilité des performances » des applications

  • Démarche

    • Comprendre les interactions entre les couches logicielles

    • Intégrer ordonnancement des processus et ordonnancement des communications

    • Diffuser les logiciels et assurer le support (INRIA Gforge)


La suite logicielle d velopp e par l quipe

MARCEL

Multithreading

MADELEINE

Communications

IA32

IA64

PPC

Sparc

Myrinet

SCI

QD

MPI

La suite logicielledéveloppée par l’équipe

  • Diffusion de la suite logicielle complète sur INRIA GForge

    • http://gforge.inria.fr/projects/pm2/

    • http://gforge.inria.fr/projects/padico/

    • http://gforge.inria.fr/projects/mpich-mad/

POSIX Thread

Couche deportabilité

PadicoTM

Gestion desgrilles

MPICH

MPIMulti-protocoles

µPM2


Supports ex cutifs pour grappes de machines numa travaux r cents et perspectives

Optimisation des communicationssur réseaux rapides

La bibliothèque NewMadeleine


Communications sur r seaux rapides

Communications sur réseaux rapides

  • Problèmes difficiles

    • Diversité des technologies/protocoles réseau

      • Myrinet, SCI, Quadrics, Infiniband, etc.

      • Méthodes de transfert des données radicalement différentes

    • Schémas de communication irréguliers

      • Messages auto-décrits, réception non sélective

      • Avec MPI, il faut agencer les communications différemment en fonction du protocole sous-jacent !

  • Objectifs

    • Interface portable

    • Faible surcoût par rapport aux protocoles bas-niveau

      • Zéro copie, communication en mode utilisateur

    • Bonne cohabitation avec la multiprogrammation


L interface de communication madeleine

L’interface de communication Madeleine

  • Caractéristiques

    • « Envoi de messages » avec construction incrémentale

    • Bibliothèque multi-protocoles

    • Coopération avec l’ordonnanceur de threads Marcel

  • Point clé

    • Programmation par contrat

      • Cohérence mémoire décorrélée des transferts

      • Optimisations sélectionnées dynamiquement

         portabilité des performances

  • Travaux connexes

    • BIP, GAMMA, AM, SBP, VIA : portabilité ?

    • MPI : manque d’expressivité de l’interface

    • Fast Messages : transferts explicites


Comment ordonnancer les paquets

Comment ordonnancer les paquets ?

  • Ca dépend des caractéristiques du réseau sous-jacent !

    • Les pilotes n’offent pas tous les mêmes propriétés

      • Latence

      • Performance des transferts PIO & DMA

      • Possibilités de Gather/Scatter

      • Disponibilité du RDMA

      • Etc.

  • Pire : ça dépend aussi des caractéristiques de la machine

    • Performance des copies memoire

    • Performance du bus d’E/S


M thodes de transfert m moire centrale carte

Méthodes de transfert Mémoire centrale -> carte


M thodes de transfert m moire centrale carte1

Méthodes de transfert Mémoire centrale -> carte


Considerations suppl mentaires

Considerations supplémentaires

  • Le récepteur joue un rôle particulier

    • Contrôle de flux obligatoire

    • Transferts zéro-copie

      • Que faire lorsqu’une carte réseau reçoit un message inattendu ?

      • A Rendezvous (REQ+ACK) can be used

  • Les communications en mode utilisateur introduisent des difficultés supplémentaires

    • Accès direct à la carte réseau

      • Nécessité de « punaiser » les pages mémoire

  • Les pilotes réseau ont souvent des limitations


Impl mentation efficace des transferts

Implémentation efficace des transferts

Transfer time

PIO + copy

DMA + RdV

DMA + copy

Message size


Impl mentation efficace des transferts1

Implémentation efficace des transferts

Transfer time

PIO + copy

DMA + RdV

DMA + copy

Message size


Impl mentation efficace des transferts2

Implémentation efficace des transferts

Transfer time

Exemple avec un message non contigü

t2

t3

t1

Chunk 1

Message size

Chunk 2

Chunk 3


Impl mentation efficace des transferts3

Implémentation efficace des transferts

Transfer time

La seconde strategie est meilleure si

t1+t3> t4 + k.(sizeof(chunk 1)+sizeof(chunk3))

t4

t3

t1

Chunk 1+3

Message size

Chunk 2


Newmadeleine objectifs

NewMadeleine - Objectifs

Une nouvelle interface de communication pour :

  • Améliorer l’ordonnancement des communications

  • S’adapter à l’activité des cartes réseaux

    • Carte occupée

      • Accroissement de la portée des optimisations

    • Sinon

      • Formation d’un nouveau paquet à émettre

  • Équilibrer les transferts entre plusieurs cartes


Newmadeleine architecture

Couche de collecte des données

Couche d’ordonnancement-optimisation

Couche de transfert

NewMadeleine - Architecture

  • Architecture en 3 couches

Application

Réseau


Couche de collecte des donn es

Couche de collecte des données

Couche d’ordonnancement-optimisation

Couche de transfert

Couche de Collecte des Données

  • La « fenêtre de travail »

Application

Réseau


Couche de collecte des donn es1

Couche de Collecte des Données

  • Encapsule les données

    • Informations nécessaires au traitement propre du transfert

    • Introduction d’entêtes :

      • Inversions au sein d’un même flux de communication

      • Multiplexage de différents flux de communication

  • Décorrèle l’activité de l’application de celle des cartes réseau

    • Communications non bloquantes

  • Augmentation des opportunités d’optimisation

    • Accumulation des paquets

    • Possibilités de permutation

    • Agrégation anticipée


Couche de transfert

Couche de collecte des données

Couche d’ordonnancement-optimisation

Couche de transfert

Couche de transfert

Application

Réseau


Couche de transfert1

Couche de transfert

  • Appels quasi directs aux routines du pilote sous-jacent

  • Interface de pilotage minimale

    • Fonctions d’initialisation, de fermeture, d’envoi, de réception et de scrutation

    • Ensemble d’informations sur les capacités du réseau

  • Ports dédiés à une méthode de transfert

  • Portage sur :

    • MX/Myrinet

    • GM/Myrinet

    • Elan/Quadrics

    • SiSCI/SCI

    • TCP/Ethernet


Couche d ordonnancement optimisation

Couche de collecte des données

Couche d’ordonnancement-optimisation

Couche de transfert

Couche d’Ordonnancement-Optimisation

  • Stratégies, tactiques et sélection d’optimisation

Application

Réseau


Couche d ordonnancement optimisation1

Couche d’Ordonnancement-Optimisation

  • Fournit le prochain paquet à soumettre

  • Tactique : opération élémentaire

    • Agrégation

    • Inversion

    • etc

  • Stratégie : combinaison de tactiques

    A terme :

  • Evalue et compare chaque stratégie

  • Sélectionne la plus performante


Fonctionnement global

Fonctionnement global


Interfaces disponibles

Interfaces disponibles

  • Interface « pack/unpack »

  • Interface « isend/irecv »

  • Émission:

  • begin_send(dest)

  • pack(len, sizeof(int), r_express)

  • pack(data, len, r_cheaper)

  • end_send()

  • Réception:

  • begin_recv()

  • unpack(len, sizeof(int), r_express)

  • data = malloc(len)

  • unpack(data, len, r_cheaper)

  • end_recv()


Plateforme d exp rimentation

Plateforme d’expérimentation

  • Grappes de Bi-Xeon 2,6 GHz sous Linux 2.6

  • Cartes Myrinet 2000

  • Pilote MX/Myrinet version 1.1.1

  • Cartes Quadrics QM500

  • Pilote Elan/Quadrics


Strat gies d optimisation

Stratégies d’optimisation

Actuellement, deux stratégies :

  • Une stratégie « par défaut »

    • Projection directe

  • Une stratégie d’agrégation

    • Agrégation des données ne nécessitant pas de rendez-vous

    • Agrégation des messages de contrôle


Ping pong nmad mx

Ping-pong Nmad/MX

Temps de transfert (µs)

Débit(Mo/s)

Taille de paquets (octets)

Taille de paquets (octets)

  • Latence : 4, 46µs

  • Moins de 1µs de surcoût

  • Coût des entêtes ajoutés

  • Coût de l’optimiseur sur une seule requête

Débit : 238 Mo/s

Moins de 5% de perte

Latence :


Ping pong nmad elan

Ping-pong Nmad/Elan

Temps de transfert

(µs)

Débit(Mo/s)

Taille de paquets (octets)

Taille de paquets (octets)

  • Latence : 3,43µs

  • Moins de 1µs de surcoût

  • Coût des entêtes ajoutés

  • Coût de l’optimiseur sur une seule requête

Débit : 635 Mo/s

Moins de 5% de perte


Apport de la strat gie d agr gation

Apport de la stratégie d’agrégation

Nmad/Elan

Nmad/MX

Différence de temps de transfert

(µs)

Différence de temps de transfert

(µs)

Nombre de paquets

Nombre de paquets

  • Ping-pong multi-paquets : envoi d’une taille fixe de 16Ko découpée en un certain nombre de paquets de même taille

  • Gain à l’agglomération des paquets


Simulation d une m moire virtuellement partag e

Simulation d’une Mémoire Virtuellement Partagée

Côté client :

Côté serveur :

for(int i = 0; i < nb_pages_a_demander; i++){

numero_page = random();

(1) pack(destination, mon_id, sizeof(int));

(2) pack(destination, numero_page,

sizeof(int));

(3) pack(destination, envoi_diff, sizeof(bool));

(4) pack(destination, type_acces, sizeof(int));

(5) unpack(&numero_page, sizeof(int));

(6) unpack(&trouve, sizeof(bool));

if(trouve){

(7) unpack(&page, taille_page);

} else {

// recherche de page sur un autre noeud

}

}

while(1){

(1)unpack(&source, sizeof(int));

(2) unpack(&numero_page, sizeof(int));

(3) unpack(&envoi_diff, sizeof(bool));

(4) unpack(&type_acces, sizeof(int));

page = recherche_page(numero_page,

type_acces);

(5) pack(source, numero_page, sizeof(int));

if(page){

(6) pack(source, touve, sizeof(bool));

(7) pack(source, page, taille_page);

} else {

(6’) pack(source, pas_trouve, sizeof(bool));

}

}


Mvp valuations

MVP - évaluations

Temps de transfert pour la demande et la réception de

3 zones mémoire :


Support des architectures multi rails

Support des architectures multi-rails

  • Fonctionnalité apportée « gratuitement » par l’architecture


Mpich madeleine une impl mentation multi protocoles de mpi

MPICH/Madeleine : une implémentation multi-protocoles de MPI

API MPI

Interface générique: communication point à point et collectives, …

Abstract Device Interface (ADI)

Interface générique : gestion des types de données et des requêtes

Module de communication

local

Module Madeleine

Communications et protocoles internes de MPICH

Madeleine

Protocoles de communication (MX, Qsnet, SISCI, …)


Madmpi une mulation light de mpi au dessus de newmad

MadMPI: une émulation « light » de MPI au-dessus de NewMad

  • Projection directe des primitives MPI_??? sur les primitives nmad_???

  • Performances similaires à celles de NewMad

    • Latence très faible (2,8 µs sur MX/Myri-10G, 1,7 µs sur Qsnet/Quadrics)

    • Gains important avec les types dérivés non contigus

    • Agrégation des isend consécutifs ou simultanés (communicateurs différents)

  • Implémentation incomplète

    • Pas (encore) d’opérations collectives

    • Pas (encore) d’interface Fortran


Supports ex cutifs pour grappes de machines numa travaux r cents et perspectives

Multithreading sur machines multiprocesseurs

Former des bulles pour guider l’ordonnancement…


La biblioth que de threads marcel

La bibliothèque de threads « Marcel »

  • Contributions

    • Ordonnanceur caméléon

      • Hybride dans le cas général

      • Spécialisable à la compilation

      • Performant

    • Extensions du modèle des Scheduler Activations

      • Réactivité aux événements d’E/S

      • Implantation dans Linux/x86 (LinuxActivations)

    • Support de l’ordonnanceur pour la scrutation des E/S

      • Factorisation des scrutations, contrôle du surcoût

    • Outils de génération et d’analyse de traces

      • Mise en corrélation de traces noyau + utilisateur

      • Utilisation du visualisateur Pajé (projet INRIA Apache)

  • Travaux connexes

    • Scheduler Activations, LinuxThreads, FSU Pthreads, OpenThreads, GnuPth, NPTL, NGPT, Panda, etc.


Vers des architectures hi rarchiques complexes

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

SMT

MEM

MEM

Chip

Chip

Chip

Chip

Chip

Chip

Chip

Chip

Vers des architectures hiérarchiques complexes

  • Puces multicores formées de processeurs « SMT », regroupées en blocs au sein d’une architecture « NUMA »


Nouveaux enjeux

Nouveaux enjeux

  • Maximiser l’occupation des processeurs…

    • Minimiser la contention sur les structures manipulées par l’ordonnanceur

    • Renoncer à capturer une vision globale de l’ordonnancement

  • Et la localité des accès

    • Enrichir la spécification des contraintes de placement/ordonnancement

      • Comment exprimer les affinités threads/mémoire ?

      • Comment décrire le comportement des threads (calcul, E/S) ?

  • Assurer la portabilité des performances

    • Raisonner indépendamment de l’architecture sous-jacente

  • Mettre en oeuvre et comparer différentes stratégies d’ordonnancement


Supports ex cutifs pour grappes de machines numa travaux r cents et perspectives

Proposition :laisser l’applicationguider l’ordonnanceur

Une approche à la fois prédéterminée, opportuniste et négociée


Des applications irr guli res

Des applications irrégulières

  • Maillages adaptatifs

  • Codes multi-échelles

  • Ordonnanceurs classiques inadaptés

    • Pas de prise en compte de la structure inhérente

  • Comment les ordonnancer efficacement sur machine hiérarchique?


Notion de bulle pour exprimer des affinit s

Notion de bulle pourexprimer des affinités

Mémorisation de la structure des applications

  • Partage de données

  • Opérations collectives

  • ...

bubble_insert_thread(bubble, thread);

bubble_insert_bubble(bubble, subbubble);


Mod lisation des machines hi rarchis es

Modélisation desmachines hiérarchisées

Une hiérarchie de listes de tâches

M

M

M

M

P

P

P

P

P

P

P

P

P0

P1

P2

P3

P4

P5

P6

P7


Exemples de r partitions possibles de bulles et threads

Exemples de répartitions possiblesde bulles et threads


Diff rentes applications n cessitent diff rents ordonnancement

Différentes applications nécessitentdifférents ordonnancement

  • Des comportements variés

    • Barrière de synchronisation → répartir sur différents processeurs

    • Affinités mémoire → regrouper sur un même noeud NUMA ou une même puce

    • Débit mémoire → répartir sur différentes puces

  • Des compromis à trouver

  • Les ordonnanceurs génériques ne peuvent pas être complètement adaptés


Crire son propre ordonnanceur

Écrire son propre ordonnanceur ?

  • Savoir-faire technique

    • Organisation générale d'un ordonnanceur

    • Efficacité de l'implémentation

    • Détails sordides (errno,...)

    • Portabilité

    • Outils d'évaluation de performances

  • Une plate-forme de développement d'ordonnanceurs en mode utilisateur


Bo te outils pour r partir threads et bulles

Boîte à outils pour répartirthreads et bulles

  • Basé sur un ordonnanceur générique

  • Points d'appels

    • Idle

    • Timeslice « par bulle »

    • ...

  • Thread à part entière

    • « démon »


Bo te outils pour r partir threads et bulles1

Boîte à outils pour répartirthreads et bulles

  • Parcourir la machine

    • rq->father, rq->sons[]

  • Consulter

    • for_each_entry

  • Verrouiller

    • rq_lock, rq_unlock

    • all_lock, all_unlock

  • Manipuler

    • get_entity, put_entity


Des ordonnanceurs vari s

Des ordonnanceurs variés

  • Vol de travail

  • Éclatement

    • Répartition simple automatique

  • Gang scheduling

  • ...

  • Combinaison d'ordonnanceurs

    • Dans l'espace

    • Dans le temps

    • Par niveaux


Un gang scheduler

Un gang scheduler

runqueue_t nosched_rq;

while(1) {

runqueue_lock(&main_rq);

runqueue_lock(&nosched_rq);

runqueue_for_each_entry(&main_rq, &e) {

get_entity(e, &main_rq);

put_entity(e, &nosched_rq);

}

if (!runqueue_empty(&nosched_rq)) {

e = runqueue_entry(&nosched_rq);

get_entity(e, &nosched_rq);

put_entity(e, &main_rq);

}

runqueue_unlock(&main_rq);

runqueue_unlock(&nosched_rq);

delay(1);

}


Vol de travail

Vol de travail

idle() {

look_up(self_rq);

}

look_up(rq) {

if (look_down(rq->father, rq))

return;

look_up(rq->rather);

}

look_down(rq, maxrq) {

if (look(rq, maxrq))

return;

for (i=0; i<rq->arity; i++)

look_down(rq->sons[i], maxrq);

}

look(rq) {

b = find_interesting_

bubble(rq)));

if (!b)

return 0;

rq_lock(rq);

get_entity(b);

rq_unlock(rq);

rq_lock(self_rq);

put_entity(b, self_rq);

rq_unlock(self_rq);

return 1;

}


Impl mentation au sein de marcel

Implémentation au sein de Marcel

  • Librairie de threads utilisateurs du projet PM2

    • http://gforge.inria.fr/projects/pm2/

  • Performante, flexible et portable

  • Compatible POSIX API + ABI

  • Nul besoin de changer de noyau

  • Ordonnanceur de base simple


Un exemple d exp rimentations avec une application

Un exemple d'expérimentationsavec une application

  • Un besoin irrégulier de jobs: factorisations LU

  • Une routine de factorisation parallèle performante (SuperLU)

  • Machine de test

    • dual-dual-core Opteron → 4 processeurs

    • Linux 2.6.18, NPTL


Parall lisation d un seul job

Parallélisation d'un seul job

Performant tant que l'on ne surcharge pas

Marcel-shared

Linux


Parall liser les jobs en 4 voies

Paralléliser les jobs en 4 voies ?

4

Bubble-gang

3

Speedup

2

Marcel-shared

1

Linux

0

1

2

3

4

5

Nombre de jobs


Parall liser les jobs en 2 voies

Paralléliser les jobs en 2 voies ?

4

Bubble-gang2

3

Marcel-shared

Speedup

2

Linux

1

1

2

3

4

5

Nombre de jobs


Conclusion sur marcel

Conclusion sur Marcel

Une boîte à outils pour:

  • Implémenter des stratégies d'ordonnancement pour machines hiérarchiques

    • Beaucoup de travail est épargné

  • Tester rapidement des stratégies existantes ou des combinaisons de stratégies

    • Y compris sur des applications pthread (conformité POSIX binaire)

    • Évaluation graphique

  • Démo ?

    • Courtesy of Samuel Thibault ;-)


Travaux restant faire

Travaux restant à faire

  • Multithreading

    • Intégrer gestion mémoire & ordonnancement à bulles

      • Mouvements de données lors des ré-équilibrages

      • Statistiques sur les « points d’ancrages » des bulles

        • Bancs mémoire

        • Caches

    • Intégrer Marcel et les bulles au sein de MPC

  • Communications

    • Finaliser l’interface légère MadMPI

    • Évaluer les gains obtenus au sein d’applications de NUMASIS

    • Porter MPC sur MadMPI

  • Les deux

    • Rendre l’ensemble « component-compliant » pour autoriser des reconfigurations à chaud, etc.


  • Login