1 / 22

Salvatore Ventre DAEIMI, Università degli Studi di Cassino Associaz.EURATOM/ENEA/CREATE

Modelli elettromagnetici veloci e paralleli per analisi di instabilità MHD in dispositivi fusionistici. Salvatore Ventre DAEIMI, Università degli Studi di Cassino Associaz.EURATOM/ENEA/CREATE con il contributo di Y. Liu, M. Furno Palumbo, R. Palmaccio, G. Rubinacci, F. Villone. Sommario.

paige
Download Presentation

Salvatore Ventre DAEIMI, Università degli Studi di Cassino Associaz.EURATOM/ENEA/CREATE

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Modelli elettromagnetici veloci e paralleli per analisi di instabilità MHD in dispositivi fusionistici Salvatore Ventre DAEIMI, Università degli Studi di Cassino Associaz.EURATOM/ENEA/CREATE con il contributo di Y. Liu, M. Furno Palumbo, R. Palmaccio, G. Rubinacci, F. Villone

  2. Sommario • Introduzione • Il codice CarMa • Metodo Veloce/Parallelo • Risultati • Conclusioni e prospettive

  3. Introduzione Instabilità nei dispositivi fusionistici • Plasmi fusionistici descritti da equazioni MHD • Modi instabili di plasma con costanti di tempo  microsecondi • Le correnti indotte sulle strutture passive dalle perturbazioni di plasma hanno un effetto stabilizzante • A causa della resistività finita, le eddy currents decadono  modo ancora instabile ma con costanti di tempo  millisecondi: Resistive Wall Modes (RWM) • E’ possibile controllo attivo per stabilizzare il modo • E’ necessaria un’analisi dettagliata della struttura conduttrice 3D con solutori nel limite magneto-quasi-statico  richiesta una grossa capacità computazionale

  4. Il codice CarMa plasma S Resistive wall Approccio modellistico • Si introduce una superficie S: • all’interno di S equazioni MHD • su S appropriate condizioni di raccordo • fuori di S modello delle Eddy Currents: • Formulazione integrale in cui la densità di corrente J è l’incognita • Si sposa con la geometria tipica dei dispositivi fusionistici con alti rapporti vuoto/pieno (solo i conduttori devono essere discretizzati) • Conduttori 3D di forma arbitraria (e.g. no thin-shell approximation) • Trattamento automatico di geometrie con topologia complessa • Possibile anisotropia resistiva • Inclusione nel modello degli elettrodi di alimentazione

  5. Il codice CarMa Formulazione numerica Termine dovuto al plasma Tensioni di alimentazione J=T

  6. Il codice CarMa Procedura iterativa per la determinazione di autovalori e autovettori instabili Sistema nella forma stato-vettore Risolto usando metodo iterativo 0, : valori di tentativo

  7. Il codice CarMa Il “bottleneck” computazionale Assemblare,Immagazzinare,Risolvere un sistema (reale o complesso) denso (# Unknows ~ 200k ) METODO ITERATIVO Risolvere efficacemente Valutare efficacemente il prodotto PRESTAZIONI DIPENDONO DA • tempo per costruire ogni termine di A • memoria necessaria a immagazzinare ogni termine di A • tempo necessario per fare il prodotto di ogni termine di A

  8. Il codice CarMa Impatto numerico dei singolo termini

  9. Metodo Veloce Il problema non è scalabile efficacemente solo utilizzando il parallelo Memoria O(N2) Inversione (metodo diretto) Matrice piena O(N3) Inversione (metodo iterativo precondizionato) O(N2) Ts(N)=O(N2) Tempo seriale di inversione Tempo parallelo di inversione Usando p processori (ideale) Tp(N)=O(N2/p) Ts(Ns)= Tp(Np)

  10. Metodo Veloce Termine L SPARSIFICAZIONE(compressione) IMPROVEMENTS new PARALLELO OBIETTIVO Integrare in maniera efficiente metodo di compressione in una implementazione parallela Fattori determinanti le prestazioni • Assembly balancing: assemblareiltermine in manierada • equilibrarei tempi di calcolotraprocessori • Memory balancing: la memoria locale necessaria per contenere il termine deve essere equidistribuita tra i processori • Computation balancing: il tempo di calcolo per costruireilprodotto locale • deveessereequilibratotraprocessori

  11. Metodo Veloce Sparsificazione di L (con complessità quasi lineare) • Introduzione di una griglia multilivello che include tutta mesh • Decomposizione in parte vicina e lontana • Calcolo e compressione della parte lontana, ottenuta secondo una tolleranza assegnata (precisione) • Calcolo esatto della parte vicina

  12. Metodo Veloce Introduzione Griglia Multilivello

  13. Metodo Veloce . Decomposizione in parte vicina e lontana Calcolata senza errori Matrice di interazione locale tra due box lontane ib1 e ib2 Basso rango # totale di interazioni lontane approssimata

  14. Metodo Veloce Compressione QR approssimata della matrice di interazione Siano me and m (ne and n) rispettivamente il numero degli elementi e delle incognite in ib1 (in ib2). r×n m×n m×r ≈ Q R r rango che dipende dalla errore richiesto (Modified Gram-Schmidt QR) (m+n) × r << m×n. EFFICIENTE Si osservi che Memory Required e ComputationTime sono uguali a (m+n) × r

  15. Metodo Veloce Implementazione Parallela di LFAR Costo assemblaggio della matrice di interazione locale Costo Totale assemblaggio Distribuire il carico di in maniera equilibrata su p processori Assembly balancing

  16. Metodo Veloce Algoritmo di distribuzione dei carichi Problema con complessità esponenziale risolto usando algoritmo sub-ottimo Costo di assemblaggio del k-simo processore In uscita Int2proc(i) fornisce il processore a cui compete l’interazione i Prestazioni dell’algoritmo sub-ottimo

  17. Metodo Veloce Memory /Computation balancing di Lfar Sono automaticamente verificati se la dimensione del problema è sufficientemente grande (problemi di interesse per il parallelo) Non c’è bisogno di ulteriori comunicazioni Memory/Computation balancing ottenuti automaticamente

  18. Metodo Veloce • Metodo iterativo: standard gmres Dettagli Implementativi • Precondizionatore In cui per si intende valutato sulla sparsità di Come precondizionatore usiamo MUMPS (http://mumps.enseeiht.fr) (free parallel solver for large sparse matrix) MUMPS supporta l’assemblaggio parallelo • Non sono necessarie ulteriori • riallocazioni • comunicazioni • codice è in standard fortran 90 • libreria parallela è MPI (http://www.open-mpi.org/) • Macchina target Altix System (http://www.bsc.es/index.php) (Shared Memory Machine) • In futuro il codice girerà anche su SCOPE (http://www.scope.unina.it/default.aspx) (Grid Computing )

  19. Risultati Studio dei RWM in ITER 1/2 # Nodi 329276 # Elementi 173304 # Incognite 206401 Occupazione necessaria per allocare la matrice completa 298GB La mesh usata copre 360° in direzione toroidale! (Metodo fast/parallel) Occupazione reale 25GB distribuita in maniera uniforme tra 32 processori (circa 780 MB per ogni processore)

  20. Risultati Studio dei RWM in ITER 2/2 Distribuzione di corrente associata al modo instabile includendo i blanket modules (schermi neutronici) Studiati numerosi equilibri di plasma con diverse assunzioni sul livello di dettaglio delle strutture conduttrici

  21. Conclusioni e prospettive • Utilizzando il metodo veloce e la sua parallelizzazione è possibile studiare strutture di interesse fusionistico la cui una complessità computazione non è altrimenti affrontabile dai codici attualmente disponibili: • dettagliata descrizione della geometria • inclusione di loop di controllo • riproduzione di risultati sperimentali • Attività futura: estensione del metodo (sparsificazione + parallelizzazione) ad altri problemi elettromagnetici descritti da una simile formulazione integrale (e.g. materiali magnetici)

  22. Grazie per l’attenzione ……

More Related