1 / 34

L ABORATOIRE DE M ODÉLISATION ET S IMULATION  N UMÉRIQUE EN M ÉCANIQUE LMSNM - L3M

L ABORATOIRE DE M ODÉLISATION ET S IMULATION  N UMÉRIQUE EN M ÉCANIQUE LMSNM - L3M F.R.E - 2405 CNRS         -         Universités d'Aix-Marseille Université de Provence - Université de la Méditerranée - Université Aix-Marseille 3. Directeur : BONTOUX Patrick

bette
Download Presentation

L ABORATOIRE DE M ODÉLISATION ET S IMULATION  N UMÉRIQUE EN M ÉCANIQUE LMSNM - L3M

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. LABORATOIRE DE MODÉLISATION ET SIMULATION NUMÉRIQUE EN MÉCANIQUE LMSNM - L3M F.R.E - 2405 CNRS         -         Universités d'Aix-Marseille Université de Provence - Université de la Méditerranée - Université Aix-Marseille 3 Directeur : BONTOUX Patrick Adresse : LMSNM - L3M - IMT La Jetée Technopôle de Château-Gombert 38, Rue Frédéric Joliot-Curie 13451 MARSEILLE Cedex 20 (France)  Email : msnm@L3M.univ-mrs.frTél : (33) 04 9111 8527                                          Fax : (33) 04 9111 8502     Site Web : http://www-msnm.L3M.univ-mrs.fr CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  2. Laboratoire de Modélisation et Simulation nuMérique en Mécanique de Marseille • Son activité scientifique • Ses Perspectives • Son activité en Calcul Haute Performance • Son activité en GRILLE (projets) CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  3. Laboratoire L3M • Université de la Méditerranée Université de rattachement : 6 Chercheurs CNRS, 6 ITA, 4 IATOS, 5 enseignants-chercheurs.USM-FGR,FEDER,PPF • CNRS-FRE2405 : Modélisation et siMulation numérique en Mécanique.GDR • Université de Provence :Partenaire FEDER-Objectif 2, PPF-CHP L3M - FRE 2405 du CNRS – Les Universités d’Aix-Marseille IMT La Jetée – Technopôle de Château-Gombert 38 rue Frédéric Joliot Curie 13451 Marseille cedex 20 Tél. : (33) –4 9111 8500 – Fax : (33) –4 9111 8502 - E-Mail : msnm@l3m.univ-mrs.fr www-l3m.univ-mrs.fr CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  4. Activités du L3M - Thèmes • Equipes (ou axes thématiques) • Instabilités hydrodynamiques, turbulence (coordination : C. Rey, I. Raspo) Personnel permanent : P. Bontoux, I. Raspo,C. Rey,B. Gilly • Contrôle hydrodynamique des systèmes (B. Roux) Personnel permanent : B.Roux; J. Marcillat, D. Fougère, S.Fayolle; Chercheurs associés :V. Lyubimov, T. Lyubimova, V. Malyshkin, O.Bessonov • Génie réactif (P. Haldenwang, K. Schneider) Personnel permanent : P.Haldenwang; C. Nicoli, K. Schneider CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  5. Instabilités hydrodynamiques, turbulence(C. Rey, I. Raspo) Thèmes de recherche: • Modélisation en mécanique des fluides et systèmes complexes. • Phénomènes d'instabilité et de transition (simulation,analyse de stabilité,méthode continuation...) • Modélisation des écoulements de fluides hypercompressibles (proches du point critique) • Modélisation des écoulements en rotation et les applications aérothermiques. • Croissance des matériaux, convection et interfaces. • Instabilités, Phénomènes thermo-acoustiques, études fondamentales dans les processus de croissance. Techniques numériques mises en oeuvre: • Méthodes de haute résolution, spectrales, hermitiennes, multidomaine. • Méthodes de volumes finis, Type de problème • 2D, 3D instationnaire. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  6. Simulation Directe d'Instabilités Convectives dans une Couche de Fluide Supercritique Champ de température instantané pour une distance au point critique de 1K et une différence de température entre les parois inférieure et supérieure de 0.3mK. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  7. Contrôle hydrodynamique des systèmes (B. Roux) (Calcul Haute Performance en Mécanique) Thèmes de recherche : • Modélisation de mécanismes de convection vibrationnelle • Transfert de chaleur et de masse dans des systèmes fortement hétérogènes (interfaces, inclusions, suspensions ). • Instabilités paramétriques, résonances. • Formage capillaire (analyse de la stabilité statique et dynamique d’un ménisque liquide/gaz) • Amortissement magnétique dans un bain fondu métallique. • Calcul haute performance (utilisant différentes classes d’ordinateurs multiprocesseurs, avec communication à très haut débit). • Applications: (1) contrôle actif des procédés (solidification dirigée); (2) Physique des fluides en microgravité: rôle des g-jitter dans les expériences à bord d’ISS (International Space Station). • Développement d’applicatifs de base performants (Algèbre Linéaire) CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  8. Contrôle hydrodynamique des systèmes (B. Roux) (2) • Aérodynamique 3D incompressible et compressible autour de structures complexes; écoulements turbulents; simulation numérique (resp. J. Marcillat; coop. société Optiflow). • Ecoulements autour de pales d’éolienne. • Effets du vent sur les bâtiments, sites et structures 3D • Influence du vent sur la propagation d’incendies de forêts en milieu accidenté. • Etude d’un système diphasique résultant de l’éjection d’un nuage de particules (leurres optroniques) dans un milieu fluide Techniques numériques mises en oeuvre: • Méthode pseudo-spectrale • Méthode multigrille • Méthodes de volumes finis Euleriennes • Couplage Lagrangien-Eulerien Types de problèmes traités • 2D ,3D instationnaires de haute précision. • Post traitement statistique et visualisation graphique CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  9. Equilibre et stabilité d’une inclusion dans un champ vibrationnel - CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  10. Génie réactif (P. Haldenwang, K. Schneider) Thèmes de recherche • Modélisation des phénomènes de combustion et systèmes réactifs. • Modélisation de la combustion des gouttes et des brouillards • Couplage hydrodynamique et réaction (application aux moteurs cryotechniques à la sortie d’un injecteur coaxial) • Turbulence en base d’ondelettes adaptatives • Instabilité des flammes de pré-mélange en micro gravité Techniques numériques mises en oeuvre: • simulation directe • méthode pseudo-spectrale • méthode multigrille • Méthode adaptative ondelettes CVS(Coherent Vortex Simultation) Types de problèmes: • 2D et 3D instationnaire CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  11. Activités du L3M – Programmes Nationaux • CNES: Contrats annuels d’aide à la recherche; « Simulation et interprétation d’expériences spatiales » • CNES / CNRS Groupement De Recherche (G.D.R.) 2258 : « Phénomènes de Transport et Transitions de Phases en Micropesanteur »(P2TMP); direction:R. PRUD'HOMME – B.ZAPPOLI • CEA/CNRS 2000-2001; « Méthode auto-adaptative; code stabilité linéaire ; application à l’instabilité de Rayleigh-Taylor» • Calcul Haute performance: • Contrat de Plan Etat-Région; 1990-94 (1,9 MF) • Contrat Région PACA-Ville de Marseille; 1994-95 (1 MF) • PPF « Calcul Haute Performance en Mécanique » 1996-99 CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  12. Activités du L3M – Programmes Internationaux • ITDC-203-82165 (Information Technology for Developing Countries) de la CE-DGXIII). Titre du projet: "Parallel Computing for Continuous Media Mechanics; Russian-EU network" Participants: Perm State University (contractant); Institut de Mécanique des Fluides de Marseille (B.R. initiateur du projet); Institute of Continuous Media Mechanics (Perm; Russie); Computing Center of Siberian Branch of A.S. (Novosibirsk); Parsytec Eastern Europ Parallel Computer GmbH(Allemagne); Royal Institute of Technology (Stockholm). 1995-97 • CONTRACT INCO/COP-97-7120 (Coordinateur : B. ROUX) « High Performance Computing in Multiphasic Fluid Mechanics: active control of systems with liquid/liquid or liquid/gas interfaces”(partenaires: Univ. Freiburg; CEA-Grenoble; Univ. Perm; Inst. Mécanique des Milieux Continus-ASR (Perm); Centre de Calcul de l'Académie des Sciences à Novosibirsk; Institut de Physique de Riga. 1998-2001. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  13. Activités du L3M - (2) Programmes Internationaux • CONTRACT INTAS-001-0167(Coordinateur : B. ROUX) : “New ways of active control of flows in liquid systems with interfaces. Applications to crystal growth, for zero gravity or for terrestrial conditions" (partenaires: Univ. Freiburg; Perm State Univ.; Inst. Mécanique des Milieux Continus-ASR (Perm); Moscow State Univ.; Mendeleev Univ. of technical Technology , Moscow Aviation Institute). depuis juillet 2001 • Projet USM-FGR  (Programme Institutionel de la DRIC) : Réseau de Coopération Universitaire trilatéral préfigurant l'Université  Franco-Germano-Russe (Université Virtuelle basée  sur l'utilisation des NTIC,décidée lorsdusommetdeBor(Russie mars 98) • THEORICAL SUPPORT GROUP "Vibrational Dynamics and Control".EC-DG-INFSO "Partial support for the sixth International Conferences on Parallel Computing Technologies-2001". CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  14. Activités du L3M - (3) Programmes Internationaux • INCO-COP-97-7120; CE-DG3.High Performance Computing in Multiphasic Fluid Mechanics: active control of systems with liquid/liquid or liquid/gas interfaces (partenaires: Univ. Freiburg; CEA-Grenoble; Univ. Perm; Inst. Mécanique des Milieux Continus-ASR (Perm); Centre de Calcul de l'Académie des Sciences à Novosibirsk; Institut de Physique de Riga. 1998-2001. • ESTEC-ESA-15637/01. « Vibrational dynamics and control» (partenariat Perm, Freiburg, Marseille) ; depuis juin 2001 • EC-DG-INFSO : IST-2001-92025 "partial support for the sixth Int. Conf. on Parallel Computing Technologies-2001". • Royal Society /CNRS (2000-2003) « Turbulence développée dans les écoulements en rotation »; Partenaire: Royal Society,UMIST, Manchester • Progamme franco-allemand DFG/CNRS (depuis 1992) « Numerical simulation of flow »; Partenaires: 22 allemands, 22 français • CNES/CNRS-CFG; programme franco-allemand «Contrôle pour la croissance cristalline;phénomène d’homogénéisation thermique par effet piston et convection lors du chauffage de fluides supercritiques »; CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  15. Activités du L3M – Formation-Recherche • Réseau formation-recherche franco-russe (Marseille, Perm, Moscou) ; 1993-96 ; 5 doctorants Russes en co-tutelle • Réseau formation-recherche franco-russe (Marseille, Lyon, Perm, Novosibirsk) ; 1997-2000 ; 6 doctorants Russes • Réseau de coopération universitaire franco-germano-russe ; depuis juillet 2000;10 doctorants russes en co-tutelle • Réseau formation-recherche franco-russe (Marseille, Lyon, Toulouse, Avignon ; perm, Novosibirsk, Nijni-Novgorod) ; 2001-04 ; 10 doctorants Russes en co-tutelle, et 10 doctorants Russes en Allemagne. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  16. Activités du L3M – Perspectives Internationales • GDRE « Mécanique des Fluides Numériques » Evolution du Réseau « MFN »; Partenaires principaux: Allemagne, France. Extension à l’Angleterre, Espagne, Italie, Pays Bas. • Réseau d’Excellence Européen • Expression d’intérêt déposée le 7 juin 2002, sous les auspices de l'ELGRA: "Physical Sciences and Applications in Space (PSAS)", coordonnateur B. Roux, • Expression d’intérêt déposée le 7 juin 2002, sous les auspices de l'ELGRA: "Microgravity and Life Sciences" , coordonateur „Dutch Experiment Support Center“, Amsterdam. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  17. Activités du L3M – Perspectives d’évolutions • UMR « Modélisation et Simulation Numérique en Mécanique et Procédés » contrat 2004-2007 (DS2) CNRS/UIII-UII-UI/U-Avignon: Effectif de 38 personnes dont 20 HDR; 27 Enseignant et chercheurs Invités dont 7 HDR, 18 Doctorants (2002) • Instabilités Hydrodynamique, Turbulence (C.Rey,I.Raspo) • Contrôle Hydrodynamique des Systèmes (B.Roux) • Milieux Hétérogènes et Fluides Réactifs (P.Haldenwang, K.Schneider) • Mécanique-Thermodynamique des Fluides (H.Gouin) • Procédés Propres et Environnement (F.Charbit) • Ingénierie en Mécanique des Fluides Thermiques (Ph. Bournot) • Ouvertures sur le site et sur l'aire marseillaise sont prévues en: • Valorisation des compétences, • Ressources et architecture de calcul CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  18. Le Calcul Haute Performance au L3M – moyens nationaux • IDRIS: • NEC SX 5 : 5000 H/an • T3E : 10 000 H/an • CINES: • SGI Origin 3800: 40 000 H/an • IBM SP3 : 10 000 H/an CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  19. Le Calcul Haute Performance au L3M – moyens locaux Issus des programmes : • Contrat de Plan Etat-Région; 1990-94 (1,9 MF) • Contrat Région-Ville de Marseille; 1994-95 (1 MF) • Acquisition d’un « cluster » i860 • Acquisition d’un Quadri SPM IBM • Contrat Communautaire FEDER-RENAVAL (Ville de Marseille); pôle d'excellence technologique); 1995-96 (1,9 MF) • Acquisition d’une SGI SMP 6 processeurs • Acquisition d’un « cluster » Parsytec 4 processeurs • Contrat FEDER- Objectif2 (1,4 MF) • Acquisition d’un cluster AMD 25 Bi-processeurs CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  20. Calcul Haute Performance au L3M Le parc • iPSC/860 (8 processeurs i860; 320 Mflops 64 bits; 16 MO/ processeur) • SiliconGraphics Power-Challenge (6 processeurs R10000-196MHz; 1 GO RAM-SMP; 2MO cache / processeur); 8 GO DD. • G40 -IBM (4 processeurs PowerPC-604 ; 256 MO RAM-SMP ; 0.5 MO cache). • Parsytec CC System (4 processeurs PC-604; 32 MO RAM / processeur) • Sun E250 (2 processeurs UtraSparc; 400 Mflops 64 bits; 1GoRAM,16GoDD) • SUN/Sparc-SS20-51 (64Mo RAM; 2Go DD), • SUN/Sparc-SS5/85 (32 Mo RAM, 2Go DD), • 3 SGI indigo2/extreme et octanes (128Mo RAM, 10 Go DD) • 2PC bi-pro pIII1K, et 4 P4 (1Go RAM, 2x20Go DD scsci et IDE) • Pile de Pc’s (233/128MoRAM) sous SolarisPC, en réseau 100 Mbs, et tournent des logiciels de répartition de calculs. Ils sont placés en salle de cours et dans les bureaux, afin de servir de moyen pédagogique ou de plate-forme de préfiguration des projets (grappes) menés au sein du PPF et de l’équipe CHPM. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  21. Calcul Haute Performance au L3M L’environnement logiciel • Solveurs en Mécanique des Fluides • Nekton (pre/post) :I860, Sun(cross-comp);(E.Spect) • FIDAP (pre/post): SUN, SGI,IBM; (Meth El.finis) • FLUENT:SUN,SGI,IBM, Linux ; (Meth. Vol.finis) • Pre/Post Traitement • Gambit, Tgrid: SUN,IBM,SGI,Linux • FieldView : SGI, WinNT • DataExplorer : SUN, IBM • Les bibliothèques: • MPI,PVM • Blas, Lapack, Scalapack, FFT2D, FFT3D // CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  22. Calcul Haute Performance au L3M L’environnement logiciel (2) • Compilateurs • Suite HPc.v7 SGI: F77,F95,C++,Prof, dbg • Suite Forte6 SUN: F77,F95,C++,Prof, dbg • Compilateurs IBM: F77,C,Prof, dbg • Suite Motorola Parsytec : mcc,mf77,gdb, parix epx cross-compiler • Suite gnu sur toutes les machines CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  23. Calcul Haute Performance au L3M L’environnement logiciel (3) • Les systèmes d’exploitation • IRIX6.5 • Solaris 7/8/PC et i860 « cube cross expl » • AIX4.3 • Parix (epx) et AIX4.1 PowerPC • Unix/Sco et i860 « cube cross expl » • Linux Mandrake, Redhat. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  24. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  25. Calcul Haute Performance au L3M L’environnement réseau • Matériel • CISCO 4500 (6 ethernet) • Switchs 10/100 (HP, Sumit,3com) • Switch Gigabit (HP) • Politique d’accès • Filtrage par listes d’accès (IOS11.2) • Protocoles ftp, telnet, http, ssh/scp CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  26. Le Calcul Haute Performance au L3M: Cluster FEDER • Dominique Fougère IR U-Méditérannée • Solange Fayolle IR U-Provence (fayolle@l3m.univ-mrs.fr) http://www-l3m.univ-mrs.fr/CHP CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  27. Chœur.l3m.univ-mrs.frConfiguration Matérielle • 25 AMD bi processeurs Athlon MP1800+ • 17 cartes mère TYAN K7, AMD760MP (33MHz) • 8 cartes mère TYAN K7X, AMD760MPX (66MHz) • Processeur : 1.53 GHz, L2 cache : 256Kb • RAM : 1 Go DDR266 • 25 cartes 100Mbs (2 switch HP ,stack gigabit) • 17 cartes gigabit (switch HP1000) • 8 cartes SCI/Dolphin PCI-64 2D (2.5G) • 26 Disques Durs IDE (1200 tours) CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  28. Chœur.l3m.univ-mrs.frConfiguration Logicielle • Cluster Alinka (redhat7.1, k2.14) • Alinka Raisin: Administration du Cluster, Scheduleur • NFS, SSH, PVFS (en test) • Compilateurs PortlandGroup :pgf77, pgCC, pgcc, pgHPF, pgprof, pgdbg • Totalview : debugger // • LAM,PMICH,PVM (100Mbs,Gigabit) • Fluent, M-Implicit, FieldView, CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  29. scali.l3m.univ-mrs.frConfiguration Logicielle • Cluster Scali (redhat7.1, k2.14) • Scali: Administration du Cluster, Scheduleur • SSH, PVFS (en test) • Compilateurs PortlandGroup :pgf77, pgCC, pgcc, pgHPF, pgprof, pgdbg • Scali-MPI (SCI, 2.5Gbs) • Fluent CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  30. Les perspectives de Grille au L3M • PPF 2004-2007 : « CHP sur une grille de Clusters ; modélisation et simulation numérique en Mécanique » • GRID@PACA • Grille Marseille-Lyon (L3M-Université Claude Bernard). • Grille franco-germano-russe (USM-FGR) • Grille US-L3M: Anciens doctorants en poste aux US;Indianapolis: A.Ecer(Nato Sc.Prog); Purdue University (Scheduler GRID développé par IPU) CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  31. Schema réseau actuel et futur CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  32. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  33. Fonctionnement d’Alinka • http://choeur.l3m.univ-mrs.fr:8080 • Alinka futur • Un cas test sur deux processeurs CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

  34. CuCP@PACA 18/07/02 (fougere@l3m.univ-mrs.fr)

More Related