1 / 27

О чем пойдет речь

Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУ С.А.Немнюгин Санкт-Петербургский государственный университет 2005. О чем пойдет речь. Генератор событий PSM Расчеты с использованием GEANT Моделирование процессов в микроканальных пластинах

sian
Download Presentation

О чем пойдет речь

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУС.А.НемнюгинСанкт-Петербургский государственный университет2005

  2. О чем пойдет речь • Генератор событий PSM • Расчеты с использованием GEANT • Моделирование процессов в микроканальных пластинах • LCG

  3. Параллельная версия генератора событий на основе партонно-струнной моделиС.А.Немнюгин, В.М.Солодков, Г.А.Феофилов, А.Асрян

  4. О проекте Работа выполняется в рамках сотрудничества с Европейским центром ядерных исследований (ЦЕРН) и связана с подготовкой к проведению исследований на Большом Адронном Коллайдере (LHC) на детекторе ALICE. Цель исследований – изучение фундаментальных свойств материи при сверхвысоких энергиях

  5. Генератор событий PSM Программный монте-карловский генератор событий (последовательная версия) разработан Н.Амелиным на основе партонно-струнной модели, модификация которой предложена: М.А.Брауном (СПбГУ) и К.Пахаресом (Университет Сантьяго де Компостелла) [N. S. Amelin, H. Stocker, W. Greiner, N. Armesto, M. A. Braun and C. Pajares, Phys. Rev. C52 (1995) 362]

  6. Вычислительные проблемы Для получения физически значимых результатов требуется большая статистика (104 – 106 событий) Трудоемкость моделирования велика (>13 сек/событие на 600МГц процессоре), если учтены: • слияние (перколяция) струн • жесткое перерассеяние глюонов • резонансные распады • перерассеяние вторичных частиц

  7. Вычислительные проблемы

  8. Вычислительные проблемы Большой объем файлов с результатами расчетов: • 1 Гбайт для 25 000 событий • 20 Гбайт для 500 000 событий

  9. Решение вычислительных проблем Разработано несколько параллельных версий генератора PSM с использованием библиотеки MPICH 1.2.4: • для кластера без файлового сервера • для кластера с файловым сервером

  10. Параллельный PSM

  11. Параллельный PSM

  12. Параллельный кластер Расчеты проводились на кластере ALICE (Петродворцовый Телекоммуникационный Центр СПбГУ): 7 двухпроцессорных вычислительных узлов (2х600 МГц, 512 МбайтОЗУ,2х4,5 Гбайт жесткие диски) + 1 сервер(1,2 ГГц,256 Мбайт ОЗУ, 40 Гбайтжесткие диски + 300 Гбайт)

  13. Ускорение A) HARD PART: True/False; B) STRING FUSION; C) RESONANCE DECAY; D) RESCATTERING

  14. Ускорение • 1000 событий • TTTT • ---- • - 02 - 224m21.353s • - 02 03 - 114m13.243s • - 02 03 04 - 87m59.043s • - 02 03 04 05 - 62m.83.205s • - 02 03 04 05 06 - 54m67.012s • - 02 03 04 05 06 07 - 48m71.642s • - 02 03 04 05 06 07 08 - 44m32.502s

  15. Генератор событий PSM BEAM: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,U TARGET: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,U Ecm/NUCLEON: 10. < Ecm/NUCLEON (GeV) < 15000. IMPACT PARAMETER: FIXB or RANB bmin: added by PAB B: 0 <= b <= B (fm), in case of IMPACT=FIXB NEVENT: 1,... HARD PART: T (D: ONLY ACTIVE FOR Ecm/NUCLEON >= 25. GeV) or F STRING FUSION: T (D) or F RESONANCE DECAY: T (D) or F RESCATTERING: T (D) or F (WARNING!!!!: EXTREMELY TIME CONSUMING, BETTER NOT TO BE USED FOR Ecm/NUCLEON > 200 GeV WITHOUT CARE) NUCLEON PDF SET: PDFLIB NUMBERING SCHEME AS NPTYPE*1000+NGROUP*100+NSET (D: 1505, GRV 94 LO), in case of HARD PART=T NUCLEAR SF CORRECTIONS: 0=NO CORRECTION, 1=EKS98 CORRECTIONS (D), 2=ESKOLA-QIU-CZYZEWSKI CORRECTION AS F2, in case of HARD PART=T

  16. Генератор событий PSM PB PB 17.3 FIXB 0.0 8.0 1000 T T T T 1505 1

  17. Расчеты с использованием GEANT В.Галицын, Ф.Ф.Валиев, С.А.Немнюгин,

  18. О проекте Данная работа составляет часть исследований процессов формирования импульсов микроскопического тока, формируемых при поглощении гамма-излучения средой Актуальность обусловлена возросшим вниманием к детекторам элементарных частиц, создаваемым на основе излучения вторичных электронов

  19. GEANT GEANT – свободно-распространяемая библиотека, предназначенная для моделирования процессов взаимодействия излучения с веществом

  20. Расчеты Расчеты проводились на кластере кафедры вычислительной физики (20 вычислительных узлов, 1,7 ГГц каждый)

  21. Расчеты процессов формирования электронной лавины в микроканальных пластинах К.Зуев, Ф.Ф.Валиев, С.А.Немнюгин,

  22. МКП

  23. МКП

  24. Импульс тока на выходе МКП

  25. LCGNorduGrid М.М.Степанова, С.Лодыгин, С.А.Немнюгин,

  26. На физическом факультете СПбГУ создается учебный центр технологий GRID. Базой учебного центра является ресурсный центр GRID. В настоящее время ресурсный центр имеет следующую конфигурацию: • серверы служб CE (Computing Element) и SE (StorageElement) • узел с пользовательским интерфейсом (UI, User Interface) • два рабочих узла (WN, WorkNode). • Узлы объединены через коммутируемый FastEthernet 100Mbps и расположены в выделенном сегменте локальной сети. Комплекс имеет подключение к внешнему каналу. • Планируется увеличение числа рабочих узлов за счет двух вычислительных кластеров физического факультета СПбГУ. Каждый кластер содержит 10 узлов на основе Pentium с тактовой частотой 1.7 Ггц.

  27. Установлено программное обеспечение промежуточного уровня (middleware) для GRID-систем LCG-2 v.2.4.0. Базовая операционная система Linux RedHat 7.3, тестируется вариант на ScientificLinux3. Интеграция ресурсного центра в GRID EGEE осуществляется подключением к брокеру ресурсов в Институте Ядерной физики (ПИЯФ РАН, Гатчина).

More Related