1 / 23

Simulations Numériques

PN. Simulations Numériques. Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003. Notre place dans le monde. 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon). From Top500 de Nov 2003. Evolution des performances.

magar
Download Presentation

Simulations Numériques

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. PN Simulations Numériques Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003

  2. Notre place dans le monde 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon) From Top500 de Nov 2003

  3. Evolution des performances IDRIS: Cray T3E, puis IBM Power 3, 4, NEC SX 5 Parmi les Top10: Earth Simulator by NEC est le num 1 (40 Teraflops) Perf = sum des 12 suivants! Cines: IBM Pow 3 2 SGI Origin Top15: 11 USA, 2 Japon, 1 Chine 1 France: CEA Bruyères le Chatel Compaq-HP 15ème place!

  4. Statistiques à partir des TOP-500

  5. Grapes dans le monde

  6. Algorithmes variés  Ncorps pur t ~ N2 Grape: machine dédiée (PP) GRAPE-5 14 s/dt pour 128 000 particules ou Tree 106 part.  Codes FFT, PM (particule-mesh) en N log N  Codes en arbre en N log N (Barnes/Hut, GADGET..)  Code P3M (PP-PM) et Adaptive P3M Couchman HYDRA  Variante TPM pour Tree/Particle-Mesh, introduit par Xu (1995) incorpore à la partie PM un code en arbre pour la partie PP. Avec TPM, 109 particules (Bode et al 2000) – le record actuel 

  7. Algorithmes (suite)  HPMpour Hierarchical Particle-MeshVillumsen 1989  ART pour Adaptive Refinement Tree Kravstov et al  AMR Adaptive Mesh Refinement RAMSES (Teyssier 02) MLAPMde Knebe et al 2000, enzo de Bryan et al 2002 hydrodynamique + auto-gravité. Efficacité de la résolution de l'équation de Poisson sur des grilles + grande dynamique des sous-grilles. Voir sur NEMO une série d’algorithmes et de sites disponibles http://bima.astro.umd.edu/nemo/

  8. Performances scalaires Test effectué sur une évolution de 5 Myr avec 100 000 particules stellaires et 20 000 particules de gaz en PMSPH (sans formation stellaire) avec les conditions initiales NGAA (H. Wozniak) ____________________________________________________ |machine | durée (min 19 steps) | durée par dt (sec) | |------------------------------------------------------------------------------| | NEC SX5 (Idris) en scalaire | 2.953 | 9.3 | |------------------------------------------------------------------------------| | DIGITAL EV 766 Mhz (LAM) | 2.824 | 8.9 | |------------------------------------------------------------------------------| | AMD-Athlon 1.4 Ghz (PC) | 2.158 | 6.8 | |------------------------------------------------------------------------------| | IBM SP3 Power 3 (Idris) | 1.616 | 5.1 | |------------------------------------------------------------------------------| | COMPAQ DS20E (LAM) | 1.119 | 3.5 |

  9. Comparaison de divers codes/machines  FFT 1283 utile (méthode de James), 360 000 particules (2 millions de cellules) + collisions de 150 000 particules 1sec CPU /dt sur la NEC SX5: 99.5% Vectorisation ratio  Beam-scheme ou SPH, ~5sec/dt  Polaire 2D (64 x 96) 100 000 + collisions 1sec/dt sur COMPAQ DS20E (scalaire)  Tree-code 15-30sec, pour 100 000 part. en scalaire (DS20E)  GADGET: performances comparables + parallélisation  Simul cosmologique (Ninin-Sémelin) 500 000 particules de z=50 à z=4.3 4 processors= 8269s 8 proc= 4074 16 proc= 2887

  10. BH86 FVFPS falcON FVFPS Nb of processors BH86, treecode Barnes/Hut, q = 0.8 falcON: Dehnen JCP 2002, 10xFaster and momentum-conserving C++ tree + FMM expansion FVFPS: Londrillo et al 2003 (F90 + MPI) q = q(M) min=0.5

  11. Mémoire vive (RAM) La mémoire a beaucoup progressé aussi, les grosses simulations demandent des machines parallèles (mais le CPU aussi!) Pour les FFT 2563 0.13 Go 5123 1 Go (en Real*8, 64bits) 10 Tableaux ~100 Mo pour un million de particules 106 part  0.1 Go donc 107 particules possibles avec 1 Go Par proc aujourd'hui, il est courant d'avoir 4Go RAM (ex. AMD- Opteron, Alpha-servers...)

  12. Equipes "galaxies" dans le monde USA Rutgers: Sellwood, Merritt et al. Grape6 + machine //, ou beowulf. Codes PM et N2 pour les AGN Hawaii: Barnes et al, TreeSPH Museum of Natural history (NY):PF: Grande concentration Grape6, surtout pour l’étude des amas globulaires. Piet Hut et al. Kentucky & Georgia Tech. Shlosman & Heller. PF : SPH. Couplage avec obs parties centrales des galaxies. Case Western Chris Mihos. PF: SPH, interactions Maryland: Peter Teuben: NEMO Santa-Cruz, Harvard: Hernquist, TreeSPH

  13. CANADA CITA : Dubinski, O Neil et al PF : paralléllisme JAPON Hongo (Tokyo) : J. Makino, Y. Funato et al. Grapes +6 PF : très grande expérience grapes. Komaba (Tokyo) : Fukushige et al. Plusieurs Grapes Mitaka (Tokyo) : Wada et al. Surtout SPH. Concentration de grapes: 16 grape5, réparties sur 8 nœuds + système de grape6 Rieken (Tokyo) : Ebisuzaki, Kawai et al. Centre des grapes MD Noguchi Sendai, Habe Hokaido, Bekki, Hozumi, Kyoto etc.

  14. AUSTRALIE Swinbourne commence ALLEMAGNE Potsdam : Steinmetz, Dehnen, Klessen et al. 8 grape5 sur 8 noeuds d'un beowulf, PF: cosmologie. Heidelberg MPI : Burkert, Naab et al. Grapes. 1 grape6, plusieurs grape5 et grape3. PF: Interactions et fusions de galaxies à disque, SPH, Kiel : Hensler, Theis, Kroupa, Harfst et al. 1 grape3. PF : chemodynamique. Heidelberg Rechen Institut : Spurzem et al. PF : Coll Manheim Munich: Springel et al GADGET Ukraine: Berczik et al. PF: galaxies naines

  15. UK Cambridge : 1 grape6, surtout pour l’étude des amas globulaires. SUISSE Genève : Pfenniger, Revaz, et al. Grand Beowulf. PF : structure orbitale et en dynamique des galaxies barrées. Basel : Gerhard, Samland et al. PF: notre Galaxie. SPH, chemodyn Zurich: Lilly, Carollo, Moore et al: nouveau groupe (PNG-PNC) ESPAGNE Plusieurs beowulfs. Parmis eux Tarragone, Granada ITALIE Padova: Lia, Carraro et al PF: populations stellaires GRECE Athènes : Contopoulos, Patsis et al. grape3 PF:structure orbitale, chaos

  16. Types de simulations « PNG » 1/ les codes type 'dynamique des galaxies'' (N corps, SPH, Hydro, ...) 2/ Synthèse de populations stellaires /évolutive 3/ hydro/transfert + physique atomique (noyaux actifs)

  17. Type N-corps: France 1/ + formation stellaire "calibration spectro-photométrique et/ou chimique" (pas de réel feedback auto-cohérent) - Combes, Melchior, Bournaud, et al. - Wozniak & Michel-Dansac 2/ SSP + une dynamique simple Prantzos & Boissier 2/ + 3/ mais sans l'hydro Moy, Rocca & Fioc : PEGASE + CLOUDY (Rocca & Fioc : PEGASE 2 + diffusion poussières = transfert; public) 2/ + 3/ Moy & Englmaier : PEGASE + CLOUDY + SPH (en cours)

  18. 1/ N-corps + gaz + chemo Paris (Obs Paris, Meudon, CEA) Lyon (Obs + coll Genève?, Wozniak et al) Marseille (Athanassoula et al.) Strasbourg (Ibata, Boily, Pichon) Nice (code Hydra?) 2/ Synthèse de populations Paris (Charlot, Rocca, Moy, Fioc et al, PEGASE) Toulouse+Paris (Schaerer et al, Starburst+PHOTO) Besançon (Robin et al.), Meudon (Pelat et al) A l’interface avec PNC: Simulations hybrides + SAM Galics (Guiderdoni et al.), Multizooms (Semelin, Combes)

  19. Prospective et besoins Orientations scientifiques à donner Thèmes à développer dans l'avenir? 1) Quantitatif plus de particules, plus de résolution 2) Qualitatif: explorer les phénomènes physiques Efforts à encourager: -- faut-il mettre plus de codes dans le domaine public? -- faut-il plus de coopérations entre groupes? -- faut-il des tâches de service (type CNAP?) -- postes fléchés? --aides: ingénieurs des centres nationaux?

  20. Le Projet Horizon A l'interface avec le PNC, besoin d'une base de données de simulations lourdes  Projet à mener comme une manip spatiale Les produits seraient accessibles à tous, afin de préparer les expériences (Herschel, ALMA, VLT, JWST, etc…) Projet de simulations de taille 100 fois supérieure à ce qui se fait actuellement: plus de dynamique, plus de physique Effort mis à la visualisation, l'exploitation, en tant que bases de données, et Observatoire Virtuel Teyssier, Colombi, Combes, Guiderdoni

  21. Tâche de service CNAP liée à la modélisation numérique Tâches de service nouvelles: activités numériques directement reliées aux TGE à la fois en amont (préparation des instruments), puis à leur exploitation Mise à disposition de la communauté de codes numériques Ces codes comporteraient par exemple: logiciels de simulations à finalité astrophysique, Hydro et Transfert de Rayonnement, MHD, dynamique N-corps (TREE-SPH), de chimie quantique et de dynamique moléculaire spécifiques aux molécules d'intérêt astrophysique, etc.. Développés, mis à jour, documentés dans des centres spécialisés qui assureraient la portabilité, l'aide à l'utilisateur, sa formation (y compris en DEA, post-DEA), l'animation scientifique, etc..

  22. Conclusions Depuis l'effort de prospective de 2002-2003 (Colle-sur-Loup Mars03) les chercheurs s'organisent, les équipes entreprennent des projets en commun, plus ambitieux Le matériel progresse (IDRIS, et aussi méso-équipement, MPOPM, fermes de PC jeunes équipes (ATIP) Réactions positives: dans un proche avenir, les équipes françaises pourraient revenir dans la compétition de haut niveau (avec postes nécessaires)  couplage avec les grands instruments bases de données, OV

More Related