Simulations num riques
This presentation is the property of its rightful owner.
Sponsored Links
1 / 23

Simulations Numériques PowerPoint PPT Presentation


  • 51 Views
  • Uploaded on
  • Presentation posted in: General

PN. Simulations Numériques. Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003. Notre place dans le monde. 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon). From Top500 de Nov 2003. Evolution des performances.

Download Presentation

Simulations Numériques

An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -

Presentation Transcript


Simulations num riques

PN

Simulations Numériques

Réflexions -- Prospective du PNG

ASSNA- 15 Décembre 2003


Notre place dans le monde

Notre place dans le monde

3ème en Europe, après

Allemagne et UK

en performances

5ème mondial (USA, Japon)

From Top500 de Nov 2003


Evolution des performances

Evolution des performances

IDRIS: Cray T3E, puis IBM Power 3, 4, NEC SX 5

Parmi les Top10: Earth Simulator by NEC est le num 1 (40 Teraflops)

Perf = sum des 12 suivants!

Cines: IBM Pow 3

2 SGI Origin

Top15: 11 USA,

2 Japon, 1 Chine

1 France: CEA

Bruyères le Chatel

Compaq-HP

15ème place!


Statistiques partir des top 500

Statistiques à partir des TOP-500


Grapes dans le monde

Grapes dans le monde


Algorithmes vari s

Algorithmes variés

 Ncorps pur t ~ N2

Grape: machine dédiée (PP)

GRAPE-5 14 s/dt pour 128 000 particules ou Tree 106 part.

 Codes FFT, PM (particule-mesh) en N log N

 Codes en arbre en N log N (Barnes/Hut, GADGET..)

 Code P3M (PP-PM) et Adaptive P3M Couchman HYDRA

 Variante TPM pour Tree/Particle-Mesh, introduit par Xu (1995)

incorpore à la partie PM un code en arbre pour la partie PP.

Avec TPM, 109 particules (Bode et al 2000) –

le record actuel 


Algorithmes suite

Algorithmes (suite)

 HPMpour Hierarchical Particle-MeshVillumsen 1989

 ART pour Adaptive Refinement Tree Kravstov et al

 AMR Adaptive Mesh Refinement RAMSES (Teyssier 02)

MLAPMde Knebe et al 2000, enzo de Bryan et al 2002

hydrodynamique + auto-gravité.

Efficacité de la résolution de l'équation de Poisson

sur des grilles + grande dynamique des sous-grilles.

Voir sur NEMO une série d’algorithmes et de sites

disponibles

http://bima.astro.umd.edu/nemo/


Performances scalaires

Performances scalaires

Test effectué sur une évolution de 5 Myr avec 100 000 particules

stellaires et 20 000 particules de gaz en PMSPH (sans formation

stellaire) avec les conditions initiales NGAA (H. Wozniak)

____________________________________________________

|machine | durée (min 19 steps) | durée par dt (sec) |

|------------------------------------------------------------------------------|

| NEC SX5 (Idris) en scalaire | 2.953 | 9.3 |

|------------------------------------------------------------------------------|

| DIGITAL EV 766 Mhz (LAM) | 2.824 | 8.9 |

|------------------------------------------------------------------------------|

| AMD-Athlon 1.4 Ghz (PC) | 2.158 | 6.8 |

|------------------------------------------------------------------------------|

| IBM SP3 Power 3 (Idris) | 1.616 | 5.1 |

|------------------------------------------------------------------------------|

| COMPAQ DS20E (LAM) | 1.119 | 3.5 |


Comparaison de divers codes machines

Comparaison de divers codes/machines

 FFT 1283 utile (méthode de James), 360 000 particules

(2 millions de cellules) + collisions de 150 000 particules

1sec CPU /dt sur la NEC SX5: 99.5% Vectorisation ratio

 Beam-scheme ou SPH, ~5sec/dt

 Polaire 2D (64 x 96) 100 000 + collisions 1sec/dt

sur COMPAQ DS20E (scalaire)

 Tree-code 15-30sec, pour 100 000 part. en scalaire (DS20E)

 GADGET: performances comparables + parallélisation

 Simul cosmologique (Ninin-Sémelin)

500 000 particules de z=50 à z=4.3

4 processors= 8269s 8 proc= 4074 16 proc= 2887


Simulations num riques

BH86

FVFPS

falcON

FVFPS

Nb of processors

BH86, treecode Barnes/Hut, q = 0.8

falcON: Dehnen JCP 2002, 10xFaster and momentum-conserving C++

tree + FMM expansion

FVFPS: Londrillo et al 2003 (F90 + MPI) q = q(M) min=0.5


M moire vive ram

Mémoire vive (RAM)

La mémoire a beaucoup progressé aussi, les grosses simulations

demandent des machines parallèles (mais le CPU aussi!)

Pour les FFT

2563 0.13 Go

5123 1 Go (en Real*8, 64bits)

10 Tableaux ~100 Mo pour un million de particules

106 part  0.1 Go

donc 107 particules possibles avec 1 Go

Par proc aujourd'hui, il est courant d'avoir 4Go RAM

(ex. AMD- Opteron, Alpha-servers...)


Equipes galaxies dans le monde

Equipes "galaxies" dans le monde

USA

Rutgers: Sellwood, Merritt et al. Grape6 +

machine //, ou beowulf. Codes PM et N2 pour les AGN

Hawaii: Barnes et al, TreeSPH

Museum of Natural history (NY):PF: Grande concentration Grape6,

surtout pour l’étude des amas globulaires. Piet Hut et al.

Kentucky & Georgia Tech. Shlosman & Heller.

PF : SPH. Couplage avec obs parties centrales des galaxies.

Case Western Chris Mihos. PF: SPH, interactions

Maryland: Peter Teuben: NEMO

Santa-Cruz, Harvard: Hernquist, TreeSPH


Simulations num riques

CANADA

CITA : Dubinski, O Neil et al PF : paralléllisme

JAPON

Hongo (Tokyo) : J. Makino, Y. Funato et al. Grapes +6

PF : très grande expérience grapes.

Komaba (Tokyo) : Fukushige et al. Plusieurs Grapes

Mitaka (Tokyo) : Wada et al. Surtout SPH. Concentration

de grapes: 16 grape5, réparties sur 8 nœuds

+ système de grape6

Rieken (Tokyo) : Ebisuzaki, Kawai et al.

Centre des grapes MD

Noguchi Sendai, Habe Hokaido, Bekki, Hozumi, Kyoto etc.


Simulations num riques

AUSTRALIE

Swinbourne commence

ALLEMAGNE

Potsdam : Steinmetz, Dehnen, Klessen et al. 8 grape5 sur 8 noeuds

d'un beowulf, PF: cosmologie.

Heidelberg MPI : Burkert, Naab et al. Grapes. 1 grape6, plusieurs

grape5 et grape3. PF: Interactions et fusions de galaxies à disque, SPH,

Kiel : Hensler, Theis, Kroupa, Harfst et al. 1 grape3.

PF : chemodynamique.

Heidelberg Rechen Institut : Spurzem et al. PF : Coll Manheim

Munich: Springel et al GADGET

Ukraine: Berczik et al. PF: galaxies naines


Simulations num riques

UK

Cambridge : 1 grape6, surtout pour l’étude des amas globulaires.

SUISSE

Genève : Pfenniger, Revaz, et al. Grand Beowulf. PF :

structure orbitale et en dynamique des galaxies barrées.

Basel : Gerhard, Samland et al. PF: notre Galaxie. SPH, chemodyn

Zurich: Lilly, Carollo, Moore et al: nouveau groupe (PNG-PNC)

ESPAGNE

Plusieurs beowulfs. Parmis eux Tarragone, Granada

ITALIE

Padova: Lia, Carraro et al PF: populations stellaires

GRECE

Athènes : Contopoulos, Patsis et al. grape3 PF:structure orbitale, chaos


Types de simulations png

Types de simulations « PNG »

1/ les codes type 'dynamique des galaxies'' (N corps, SPH, Hydro, ...)

2/ Synthèse de populations stellaires /évolutive

3/ hydro/transfert + physique atomique (noyaux actifs)


Type n corps france

Type N-corps: France

1/ + formation stellaire "calibration spectro-photométrique et/ou

chimique" (pas de réel feedback auto-cohérent)

- Combes, Melchior, Bournaud, et al.

- Wozniak & Michel-Dansac

2/ SSP + une dynamique simple Prantzos & Boissier

2/ + 3/ mais sans l'hydro

Moy, Rocca & Fioc : PEGASE + CLOUDY

(Rocca & Fioc : PEGASE 2 + diffusion poussières = transfert; public)

2/ + 3/

Moy & Englmaier : PEGASE + CLOUDY + SPH (en cours)


Simulations num riques

1/ N-corps + gaz + chemo

Paris (Obs Paris, Meudon, CEA)

Lyon (Obs + coll Genève?, Wozniak et al)

Marseille (Athanassoula et al.)

Strasbourg (Ibata, Boily, Pichon)

Nice (code Hydra?)

2/ Synthèse de populations

Paris (Charlot, Rocca, Moy, Fioc et al, PEGASE)

Toulouse+Paris (Schaerer et al, Starburst+PHOTO)

Besançon (Robin et al.), Meudon (Pelat et al)

A l’interface avec PNC: Simulations hybrides + SAM

Galics (Guiderdoni et al.), Multizooms (Semelin, Combes)


Prospective et besoins

Prospective et besoins

Orientations scientifiques à donner

Thèmes à développer dans l'avenir?

1) Quantitatif plus de particules, plus de résolution

2) Qualitatif: explorer les phénomènes physiques

Efforts à encourager:

-- faut-il mettre plus de codes dans le domaine public?

-- faut-il plus de coopérations entre groupes?

-- faut-il des tâches de service (type CNAP?)

-- postes fléchés?

--aides: ingénieurs des centres nationaux?


Le projet horizon

Le Projet Horizon

A l'interface avec le PNC, besoin d'une base de données de

simulations lourdes

 Projet à mener comme une manip spatiale

Les produits seraient accessibles à tous, afin de préparer les

expériences (Herschel, ALMA, VLT, JWST, etc…)

Projet de simulations de taille 100 fois supérieure à ce qui se

fait actuellement: plus de dynamique, plus de physique

Effort mis à la visualisation, l'exploitation, en tant que bases

de données, et Observatoire Virtuel

Teyssier, Colombi, Combes, Guiderdoni


T che de service cnap li e la mod lisation num rique

Tâche de service CNAP liée à la modélisation numérique

Tâches de service nouvelles: activités numériques

directement reliées aux TGE à la fois en amont

(préparation des instruments), puis à leur exploitation

Mise à disposition de la communauté de codes numériques

Ces codes comporteraient par exemple:

logiciels de simulations à finalité astrophysique, Hydro et Transfert

de Rayonnement, MHD, dynamique N-corps (TREE-SPH), de chimie

quantique et de dynamique moléculaire spécifiques aux molécules

d'intérêt astrophysique, etc..

Développés, mis à jour, documentés dans des centres spécialisés

qui assureraient la portabilité, l'aide à l'utilisateur, sa formation

(y compris en DEA, post-DEA), l'animation scientifique, etc..


Conclusions

Conclusions

Depuis l'effort de prospective de 2002-2003 (Colle-sur-Loup Mars03)

les chercheurs s'organisent, les équipes entreprennent des projets en

commun, plus ambitieux

Le matériel progresse (IDRIS, et aussi méso-équipement, MPOPM,

fermes de PC jeunes équipes (ATIP)

Réactions positives: dans un proche avenir, les équipes françaises

pourraient revenir dans la compétition de haut niveau

(avec postes nécessaires)

 couplage avec les grands instruments

bases de données, OV


  • Login