1 / 32

Présentation

Présentation. Message Passing Interface. Par : Khalil BADDOU Mohammed Ghaouth BELKASMI Mohammed SABER Mounir GRARI Said BENBOUAZA Encadrant: Dr. Abdelhaq LAKHOUAJA. Plan. Tour d’Horizon : Monde MPI et Structure Communication point to point Communication Collective

Download Presentation

Présentation

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Présentation Message Passing Interface Par :Khalil BADDOU Mohammed Ghaouth BELKASMI Mohammed SABER Mounir GRARI Said BENBOUAZA Encadrant: Dr. Abdelhaq LAKHOUAJA Message Passing Interface

  2. Plan • Tour d’Horizon :Monde MPI et Structure • Communication point to point • Communication Collective • Types de Données MPI Dérivée Message Passing Interface

  3. Monde MPI et Structure Message Passing Interface

  4. MPI Structure • Header File : • #include ‘’mpi.h’’ • Format des Fonctions MPI : • error = MPI_Xxxx ( Parametre , …); • MPI_Xxxx ( Parametre , …); • Initialisation MPI : • int MPI_Init(int argc , char *argv[]) • //doit être le premier appel(seulement une fois) Message Passing Interface

  5. MPI Communicator • Collection des processus réservés, qui vont communiquer entre eux. • Plus souvent, on utilise MPI_COMM_WORLD, le communicateur par défaut. • Définie dans MPI_Init() Message Passing Interface

  6. Propriétés • Rank : Process ID, identifiant assigné par le système quand le processus est initialisé. • MPI_Comm_rank(MPI_Comm comm, int *rank) • Utilisé pour spécifier la source et la destination des messages. • Commence à partir de zéro. • Size : Combien de processus sont dans le communicateur? • MPI_Comm_size(MPI_Comm comm,int *size) Message Passing Interface

  7. Quitter MPI • int MPI_Finalize() • doit être appelé à la fin par tous les processus • Exemple : #include ‘’mpi.h’’ void main(int argc, char *argv[]) { int rank,size; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD,&rank); MPI_Comm_size(MPI_COMM_WORLD,&size); /* ... code ici ...*/ MPI_Finalize(); } Message Passing Interface

  8. Communication Point à Point • Communication entre deux processus • Le processus source envoie un message au processus destination • Destination reçoit le message • La communication est établie à travers le Communicateur. • La source et la destination sont identifiées par leurs rangs dans le Communicateur. Message Passing Interface

  9. Modes de communication Message Passing Interface

  10. Routine • Envoie de Message : • int MPI_Ssend(void *buf,int count,MPI_Datatype datatype, int dest,int tag,MPI_Comm comm) Message Passing Interface

  11. Arguments Buf starting address of the data to be sent Count number of elements to be sent Datatype MPI datatype of each element Dest rank of destination process Tag message marker (set by user) Comm MPI communicator of processors involved MPI_Ssend(data,500,MPI_FLOAT,6,33,MPI_COMM_WORLD); Message Passing Interface

  12. Communication Valide ! • Sender must specify a valid destination rank • Receiver must specify a valid source rank • The communicator must be the same • Tags must match • Receiver's buffer must be large enough • De plus: • To receive from any source -- MPI_ANY_SOURCE • To receive with any tag -- MPI_ANY_TAG • Actual source and tag are returned in the receiver's status parameter. Message Passing Interface

  13. Message Order • Les messages ne doublent pas l'un l'autre • Process 0 envoie deux messages; Process 2 post deux receives qu’égal les 2 messages •  l'ordre est conservé Message Passing Interface

  14. Exemple ---------------------------- P: 0 Got data from processor 1 P: 0 Got 100 elements P: 0 value[5]=5.000000 Message Passing Interface

  15. Communication Collective Message Passing Interface

  16. Définition • Communication entre un groupe de processus • Appelé par tous les processus dans le communicateur • Exemples: • Barrier synchronization • Broadcast, scatter, gather, etc. (Data Distribution) • Global sum, global maximum, etc. (Collective Operations) Broadcast : (One-to-all communication) les même données sont envoyés de root process aux autres dans le communicateur int MPI_Bcast ( void *buffer, int count,      MPI_Datatype datatype, int root,      MPI_Comm comm) Message Passing Interface

  17. Exemple Message Passing Interface

  18. MPI Data Type Message Passing Interface

  19. Derived Data Type Message Passing Interface

  20. Procédure • Dans les communications, les données échangées sont typées : MPI_INT, MPI_FLOAT,MPI_DOUBLE, etc. • On peut créer des structures de données plus complexes à l’aide de sous-programmes tels que: MPI_Type_contiguous, MPI_Type_vector, MPI_Type_ struct MPI_Type_indexed, MPI_Type_hvector, MPI_Type_hindexed • chaque fois que l’on crée un type de données, il faut le valider à l’aide du sous-programme MPI_TYPE_COMMIT(). • Si on souhaite réutiliser le même type, on doit le libérer avec le sous-programme MPI_TYPE_FREE(). MPI_Type_extent :sert à déterminer la taille (in bytes) du Data Type MPI_Type_extent (MPI_Datatype datatype, int* extent). Message Passing Interface

  21. Types contigus • MPI_TYPE_CONTIGUOUS() crée une structure de données à partir d’un ensemble homogène de type prédéfini de données contiguës en mémoire. int MPI_Type_contiguous (int count, MPI_Datatype oldtype, MPI_Datatype *newtype ) Message Passing Interface

  22. Exemple ---------------------------- P:1 received coords are (15,23,6) Message Passing Interface

  23. Types Vector (avec un pas constant) • MPI_TYPE_VECTOR() crée une structure de données à partir d’un ensemble homogène de type prédéfini de données distantes d’un pas constant en mémoire. • Le pas est donné en nombre d’éléments. MPI_TYPE_VECTOR (6,1,5, MPI_FLOAT ,nouveau_type,code) Synopsis int MPI_Type_vector( int count, int blocklen, int stride, MPI_Datatype old_type, MPI_Datatype *newtype ) Message Passing Interface

  24. Types HVECTOR (avec un pas constant) • MPI_TYPE_HVECTOR() crée une structure de données à partir d’un ensemble homogène de type prédéfini de données distantes d’un pas constant en mémoire. • Le pas est donné en nombre d’octets. • Cette instruction est utile lorsque le type générique n’est plus un type de base (MPI_INT, MPI_FLOAT,...) mais un type plus complexe construit à l’aide des sous-programmes MPI vus précédemment. • Le pas ne peut plus alors être exprimé en nombre d’éléments du type générique. Synopsis int MPI_Type_hvector( int count, int blocklen, MPI_Aint stride, MPI_Datatype old_type, MPI_Datatype *newtype ) Input Parameters count number of blocks (nonnegative integer) blocklength number of elements in each block (nonnegative integer) stride number of bytes between start of each block (integer) old_type old datatype (handle) Message Passing Interface

  25. Types INDEXED (homogènes à pas variable) • MPI_TYPE_INDEXED() permet de créer une structure de données composée d’une séquence de blocs contenant un nombre variable d’éléments et séparés par un pas variable en mémoire. Ce dernier est exprimé en éléments. • Synopsis • int MPI_Type_indexed( int count, int blocklens[], int indices[], MPI_Datatype old_type, MPI_Datatype *newtype ) • Input Parameters • count number of blocks -- also number of entries in indices and blocklens blocklens number of elements in each block (array of nonnegative integers) indices displacement of each block in multiples of old_type (array of integers) old_type old datatype (handle) Message Passing Interface

  26. Types HINDEXED (homogènes à pas variable) • MPI_TYPE_HINDEXED() a la même fonctionnalité que MPI_TYPE_INDEXED()sauf que le pas séparant deux blocs de données est exprimé en octets. • Cette instruction est utile lorsque le type générique n’est pas un type de base MPI (MPI_INT, MPI_FLOAT, ...) mais un type plus complexe construit avec les sous-programmes MPI vus précédemment. On ne peut exprimer alors le pas en nombre d’éléments du type générique d’où le recours à MPI_TYPE_HINDEXED(). • Attention à la portabilité avec MPI TYPE HINDEXED() ! • Synopsis int MPI_Type_hindexed( int count, int blocklens[], MPI_Aint indices[], MPI_Datatype old_type, MPI_Datatype *newtype ) • Input Parameters • count number of blocks -- also number of entries in indices and blocklens blocklens number of elements in each block (array of nonnegative integers) indices byte displacement of each block (array of MPI_Aint) old_type old datatype (handle) Message Passing Interface

  27. Types INDEXED Message Passing Interface

  28. Types HINDEXED Message Passing Interface

  29. Types STRUCT(hétérogènes) • Le sous-programme MPI_TYPE_STRUCT() est le constructeur de types le plus général. Il a les mêmes fonctionnalités que MPI_TYPE_INDEXED() mais permet en plus la réplication de blocs de données de types différents. • Les paramètres de MPI_TYPE_STRUCT() sont les mêmes que ceux de MPI_TYPE_INDEXED() avec en plus : • le champ anciens types est maintenant un vecteur de types de données MPI ; • compte tenu de l’hétérogénéité des données et de leur alignement en mémoire, • le calcul du déplacement entre deux éléments repose sur la différence de leurs adresses. • MPI, via MPI_ADDRESS(), fournit un sous-programme portable qui permet de retourner l’adresse d’une variable. Message Passing Interface

  30. Message Passing Interface

  31. Message Passing Interface

  32. Exemple P:1 my a is 6 3.140000 0.000000 1.000000 2.000000 3.000002 Message Passing Interface

More Related