1 / 34

Uso del GRID en generación masiva de Datos: Sistema de producción del Experimento ATLAS

Uso del GRID en generación masiva de Datos: Sistema de producción del Experimento ATLAS. Santiago González de la Hoz Santiago.GonzalezdelaHoz@cern.ch CERN (European Organization for Nuclear Research). Sistema de producción del experimento ATLAS. Introducción Objetivo de esta charla

mandek
Download Presentation

Uso del GRID en generación masiva de Datos: Sistema de producción del Experimento ATLAS

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Uso del GRID en generación masiva de Datos: Sistema de producción del Experimento ATLAS Santiago González de la Hoz Santiago.GonzalezdelaHoz@cern.ch CERN (European Organization for Nuclear Research)

  2. Sistema de producción del experimento ATLAS • Introducción • Objetivo de esta charla • Experimento ATLAS • Programa “Data Challenges (DC)” • Sistema de Producción de ATLAS • Base de datos de producción • Supervisor: Windmill • Ejecutores: Lexor, Capone y Dulcinea • Data Management: Don Quijote • Fases de producción de los DC2 • Los 3 “sabores” Grid (LCG, GRID3 y NorduGrid) • Producción de ATLAS en los DC2 • Análisis de datos utilizando el sistema de producción • Conclusiones Santiago González de la Hoz 2/34

  3. Sistema de producción del experimento ATLAS • Introducción • Objetivo de esta charla • Experimento ATLAS • Programa “Data Challenges (DC)” Santiago González de la Hoz 3/34

  4. Sistema de producción del experimento ATLAS • Objetivo de esta charla/curso • Problema “real” con el que se encuentra un experimento, en este caso ATLAS. • Posible solución a dicho problema, el GRID • Uso del Grid para la resolución de dicho problema • Experimento ATLAS • Uno de los 4 experimentos que se están construyendo en el CERN • Dos de carácter general (ATLAS y CMS) • Uno para la física del b (LHCb) • Uno para el estudio de iones pesados (ALICE) • Se colocará en el túnel del futuro colisionador de hadrones LHC • Colisionador protón-protón • Energía en centro de Masas de 14 TeV • Alta luminosidad (1034 cm-2 s-1) Santiago González de la Hoz 4/34

  5. Sistema de producción del experimento ATLAS Mont Blanc, 4810 m Geneva Santiago González de la Hoz 5/34

  6. Sistema de producción del experimento ATLAS Santiago González de la Hoz 6/34

  7. Sistema de producción del experimento ATLAS • Toma de datos empieza en 2007 • Level 3 Trigger: 100 sucesos/s, siendo el tamaño de ≈1 MB/suceso • Volumen de datos ≈ 1 PB/año durante 10 años • CPU estimada para procesar datos en el LHC: 200.000 PCs actuales • Esto genera 3 problemas: • Almacenamiento de datos • Procesado • Usuarios dispersos por todo el mundo Posible solución TECNOLOGÍAS GRID Santiago González de la Hoz 7/34

  8. Sistema de producción del experimento ATLAS • Programa Data Challenges (DC) • La colaboración ATLAS en el año 2002 diseño el programa “Data Challenges (DC)” con el objetivo de validar su: • Modelo de Computación • Software • Modelo de datos • Empezar a usar y probar las tecnologías GRID • Con los DC1 se consiguió (no se utilizó el GRID): • Desarrollar y desplegar el software necesario para la producción de sucesos a gran escala. • Participaron en la producción institutos de todo el mundo. • Con los DC2 se ha conseguido producir sucesos a gran escala utilizando el middleware GRIDdesarrollado en tres proyectos (sabores de Grid) : • LHC Computing Grid project (LCG), en el cual participa el CERN y el IFIC • GRID3 • NorduGRID Santiago González de la Hoz 8/34

  9. Sistema de producción del experimento ATLAS • Sistema de producción de ATLAS (ver charla Julio Lozano) • Base de datos de producción • Supervisor: Windmill • Ejecutores: Lexor, Capone y Dulcinea • Data Management: Don Quijote Santiago González de la Hoz 9/34

  10. Sistema de producción del experimento ATLAS • La base de datos de producción, la cual contiene la definición de los trabajos. • El supervisor “windmill”, el cual consulta la base de datos para obtener la definición de los trabajos y se los pasa a los ejecutores de cada Grid en formato XML. • Los ejecutores, hay uno por cada sabor Grid. Ellos reciben la definición del trabajo en formato XML y la convierten en el “job description language (JDL)” de cada “sabor” Grid. • Don Quijote, Atlas Data Management system, el cual se encarga de: • Transferir ficheros desde su localización temporal hasta su destino final en un Storage Element (SE) • Registrar los en el catálogo correspondiente a cada Grid (replica location service). • Atlas diseño un sistema de producción automático para poder llevar a cabo su producción masiva de datos en los DC2. • El sistema de producción de ATLAS consiste en 4 componentes: Santiago González de la Hoz 10/34

  11. Sistema de producción del experimento ATLAS • Definición de trabajos en la base de datos • Prodcom: Es una herramienta interactiva gráfica que nos permite fácilmente definir una gran cantidad de trabajos en la base de datos • Esta hecho en Java y se puede correr como un applet • En la definición del trabajo elegimos: • Nuestra transformación* • Los ficheros de entrada (ponemos su LFN, logical file name) • Los ficheros de salida (LFN) • Donde queremos que se guarden los ficheros de salida (SE) *Transformación: Es un shell script que espera una serie de parámetros de entrada y ejecuta “athena.py”, otro “programa” para la generación, simulación, etc.. de sucesos en ATLAS. Santiago González de la Hoz 11/34

  12. Sistema de producción del experimento ATLAS • Definición de trabajos en la base de datos • Los trabajos se crean en la base de datos y se les asigna automáticamente un ID • También se monitoriza su estado. Santiago González de la Hoz 12/34

  13. Sistema de producción del experimento ATLAS • Declaración de una transformación en la base de datos: • phpORADmin: interfaz web de ATLAS con la base de datos. • La transformación se declara • Se definen los parámetros de entrada que necesita dicha transformación Santiago González de la Hoz 13/34

  14. Sistema de producción del experimento ATLAS • Supervisor: Windmill • Es una implementación del software “supervisor” para la gestión de la producción de ATLAS. • Consulta la base de datos para obtener la definición de los trabajos. • Interacciona con varios “ejecutores” para la distribucción, ejecución y monitorización de los trabajos en los diferentes Grids (a través de XML, utilizando un jabber server, ) • Configuración: Windmill • Se configura modificando el fichero windmill.xml • Jobselection: <grid>LCGANALYSIS</grid>. Para coger los trabajos en la base de datos con inputhint LCGANALYSIS Database: <oraconnection>atlas_prodsys_dev/prodsys@devdb</oraconnection>. Elegimos la base de datos Santiago González de la Hoz 14/34

  15. Sistema de producción del experimento ATLAS • Ejecutores: Lexor, Dulcina y Capone • Por diseño son una interfaz entre el supervisor (que es único) y los tres “sabores” Grid. • La información que reciben del supervisor en XML, la convierten en el JDL (Job Description Language) de que “sabor” Grid • Envían los trabajos a los correspondientes Computing Elements asociados con dicho sabor de Grid. • Configuración: Lexor (LCG) • Se configura modificando el fichero lexor.cfg • Elección de Resource Broker y BDII • Puedes habilitar o deshabilitar centros • El fichero lexor_wrap.sh: • Baja, instala y ejecuta la transformación • Hace el “stage in” de los ficheros necesarios de entrada (utilizando Don Quijote, DQ) • Hace el “stage out” de los ficheros de salida (DQ) Santiago González de la Hoz 15/34

  16. Sistema de producción del experimento ATLAS • Data Management System: Don Quijote (DQ) • El objetivo de DQ es integrar todos los servicios de gestión de datos (data managment) usados por los tres Grids y por lo tanto por el Experimento ATLAS. • De esta forma los datos se pueden replicar y registrar de forma transparente entre los diferentes catálogos de los tres “sabores” grids. • Realmente hay tres servidores DQ, uno para cada Grid, pero para el usuario final, esto es totalmente transparente. Como si solo hubiera uno • Utilización Don Quijote: • Corres el script eligiendo el tipo de Grid y el LFN para dicho fichero: • dms2.py –g lcg get rome.004100.recov10.T1_McAtNLO_top._00211.AOD.pool.root Santiago González de la Hoz 16/34

  17. Sistema de producción del experimento ATLAS • Fase de producción de los DC2 • Los 3 “sabores” Grid (LCG, GRID3 y NorduGrid) • Producción de ATLAS en los DC2 Santiago González de la Hoz 17/34

  18. Sistema de producción del experimento ATLAS Fases de producción de los DC2 Bytestream Raw Digits ESD Digits (RDO) MCTruth Bytestream Raw Digits Mixing Reconstruction Reconstruction Events HepMC Hits MCTruth Geant4 Digitization Bytestream Raw Digits Bytestream Raw Digits ESD Digits (RDO) MCTruth Events HepMC Hits MCTruth Pythia Reconstruction Geant4 Digitization Digits (RDO) MCTruth Events HepMC Hits MCTruth Geant4 Pile-up Bytestream Raw Digits ESD Bytestream Raw Digits Mixing Reconstruction Events HepMC Hits MCTruth Digits (RDO) MCTruth Geant4 Pile-up Bytestream Raw Digits 20 TB 5 TB 20 TB 30 TB ~5 TB Event Mixing Digitization (Pile-up) Reconstruction Detector Simulation Event generation Byte stream Persistency: Athena-POOL TB Physics events Min. bias Events Piled-up events Mixed events Mixed events With Pile-up Volume of data for 107 events Santiago González de la Hoz 18/34

  19. Sistema de producción del experimento ATLAS • Los DC2 de ATLAS empezaron la fase de simulación en Julio 2004 y acabó en Septiembre del mismo año. • Se generaron 10 millones de sucesos distribuidos en 100000 trabajos • La digitalización y el Pile-up acabaron en Diciembre 2004 y corrió sobre una muestra de 2 millones • Se utilizaron las tecnologías Grid (3 proyectos)!!!!! Santiago González de la Hoz 19/34

  20. Sistema de producción del experimento ATLAS Los tres “sabores” Grid • LCG (http://lcg.web.cern.ch/LCG/) • The job of the LHC Computing Grid Project – LCG – is to prepare the computing infrastructure for the simulation, processing and analysis of LHC data for all four of the LHC collaborations. This includes both the common infrastructure of libraries, tools and frameworks required to support the physics application software, and the development and deployment of the computing services needed to store and process the data, providing batch and interactive facilities for the worldwide community of physicists involved in LHC. • NorduGrid (http://www.nordugrid.org/) • The aim of the NorduGrid collaboration is to deliver a robust, scalable, portable and fully featured solution for a global computational and data Grid system. NorduGrid develops and deploys a set of tools and services – the so-called ARC middleware, which is a free software. • Grid3 (http://www.ivdgl.org/grid2003/) • The Grid3 collaboration has deployed an international Data Grid with dozens of sites and thousands of processors. The facility is operated jointly by the U.S. Grid projects iVDGL, GriPhyN and PPDG, and the U.S. participants in the LHC experiments ATLAS and CMS. Los tres proyectos utilizan Globus. Solamente existen pequeñas diferencias en el middleware Santiago González de la Hoz 20/34

  21. Sistema de producción del experimento ATLAS NORDUGRID • LCG • GRID3 • LCG-2 core packages: • VDT (Globus2, condor) • EDG WP1 (Resource Broker, job submission tools) • EDG WP2 (Replica Management tools) + lcg tools • One central RMC and LRC for each VO, located at CERN, ORACLE backend • Several bits from other WPs (Config objects, InfoProviders, Packaging…) • GLUE 1.1 (Information schema) + few essential LCG extensions • MDS based Information System with significant LCG enhancements (replacements, simplified) • Mechanism for application (experiment) software distribution • Grid environment built from core Globus and Condor middleware, as delivered through the Virtual Data Toolkit (VDT) • GRAM, GridFTP, MDS, RLS, VDS • …equipped with VO and multi-VO security, monitoring, and operations services • …allowing federation with other Grids where possible, eg. CERN LHC Computing Grid (LCG) • USATLAS: GriPhyN VDS execution on LCG sites • USCMS: storage element interoperability (SRM/dCache) • ARC is based on Globus Toolkit with core services replaced • Currently uses Globus Toolkit 2 • Alternative/extended Grid services: • Grid Manager that • Checks user credentials and authorization • Handles jobs locally on clusters (interfaces to LRMS) • Does stage-in and stage-out of files • Lightweight User Interface with built-in resource broker • Information System based on MDS with a NorduGrid schema • xRSL job description language (extended Globus RSL) • Grid Monitor • Simple, stable and non-invasive Santiago González de la Hoz 21/34

  22. Sistema de producción del experimento ATLAS LCG • Esta infraestructura lleva trabajando desde el 2003. • Los recursos (tanto de computación como de almacenamiento) están instalados en RC (Regional Centers) conectados por redes de alta velocidad. • 100 centros, 22 paises (Estos números aumentan rápidamente) • 6558 TB • ~10000 CPUs (compartidas) Santiago González de la Hoz 22/34

  23. Sistema de producción del experimento ATLAS NorduGrid • Es una colaboración de investigación formada principalmente por los países nórdicos, aunque hay otros países. • Fueron los únicos que contribuyeron a los DC1 utilizando el Grid. • Son los únicos que soportan diferentes distribuciones a RedHat. • 11 paises, 40+ centros, ~4000 CPUs, • ~30 TB almacenamiento Santiago González de la Hoz 23/34

  24. Sistema de producción del experimento ATLAS • Sep 04 • 30 centros, multi-VO • Recursos compartidos • ~3000 CPUs GRID3 • Dicha infraestructura lleva trabajando desde Nov 2003. • Actualmente corriendo 3 aplicaciones de Física de Altas Energías y 2 de Biología. • Mas de 100 usuarios corriendo en Grid3. Santiago González de la Hoz 24/34

  25. Sistema de producción del experimento ATLAS • Producción de ATLAS en los DC2 • Simulación G4 total # Validated Jobs Day Santiago González de la Hoz 25/34

  26. Sistema de producción del experimento ATLAS • Producción de ATLAS en los DC2 Santiago González de la Hoz 26/34

  27. Sistema de producción del experimento ATLAS • Análisis de datos utilizando el sistema de producción Santiago González de la Hoz 27/34

  28. Sistema de producción del experimento ATLAS • Definimos una transformación de Análisis • Se definen los parámetros: <infilename> ..... name of input file (full path)“ <histfilename> .... HIST output filename" <ntuplefilename> .... NTUPLE output filename" <nevt> ........... number of output events to be processed" <skip> ........... number of input events to be skipped" • Implementamos nuestro algoritmo de análisis (Usamos en este caso ttbar) get_files -jo ttbarExample_jobOptions.py • Se genera el fichero de configuración para correr Athena cat >> input.py << EOF EventSelector.InputCollections=file_list theApp.EvtMax = $NEVT theApp.SkipEvents = $SKIP HistogramPersistencySvc.OutputFile = "$HISTFN"; NTupleSvc.Output = [ "FILE1 DATAFILE='$NTUPFN' OPT='NEW'" ] EOF • Corremos Athena con las opciones de nuestro trabajo time athena.py ttbarExample_jobOptions.py input.py >& logANA Santiago González de la Hoz 28/34

  29. Sistema de producción del experimento ATLAS • Declaramos la transformación en la base de datos: usando phpORAdmin. • Definimos los trabajos en la base de datos asociados a dicha transformación: con prodcom • Instalamos una instancia de Windmill y Lexor configurados para que ejecuten nuestros trabajos: • Se instaló en el UI (lcg2ui2.ific.uv.es), y se utilizó el Resource Broker (lcg2rb2.ific.uv.es) y BDII del IFIC-Valencia. • Modificamos el wrapper (Lexor_wrapper.sh) de Lexor para que pudiera coger nuestra transformación: wget http://ific.uv.es/~sgonzale/kitvalidation/packages/10.0.0.1/JobTransforms-10-00-00-01.tar.gz tar xvzf JobTransforms-10-00-00-01.tar.gz Santiago González de la Hoz 29/34

  30. Sistema de producción del experimento ATLAS • Se utilizó el siguiente dataset: rome.004100.recov10.T1_McAtNLO_top • Muestra ttbar • 50 sucesos por fichero, un total de 7000 ficheros • Se definieron 70 trabajos con 100 ficheros de entrada en la base de datos utilizando prodcom: • e.g. Rome.004100.recov10.T1_McAtNLO_top._[00001-00100].AOD.pool.root • Se enviaron y ejecutaron estos trabajos utilizando nuestra instancia de Lexor+windmill • Los trabajos corrieron en diferentes institutos LCG (ific.uv.es, gridpp.rl.ac.uk, farmnet.nikhef.nl, etc..) • Cada trabajo produjo 3 ficheros de salida, los cuales fueron almacenados en Castor (IFIC-Valencia, Taiwan, CERN), por ejemplo: • rome.analysis.large.23.hist.root • rome.analysis.large.23.ntup.root • rome.analysis.large.23.log • Los 70 histogramas fueron concatenados en uno: • Utilizamos para ello la macro de root: $ROOTSYS/bin/hadd • Los histogramas fueron abiertos con RFIO (almacenados en Castor) Santiago González de la Hoz 30/34

  31. Sistema de producción del experimento ATLAS • Reconstrucción de la masa invariante del W desintegrándose a jet-jet (W->jj): • A la izquierda uno de los 70 histogramas producidos a través del sistema de producción de ATLAS a la Grid • A la derecha una vez hecho el encadenamiento de los 70 histogramas • Hemos analizado 350000 sucesos!!! Santiago González de la Hoz 31/34

  32. Sistema de producción del experimento ATLAS • El trabajo solo dura 4 minutos en el Worker Node, pero tarda en total 4 Horas: • Se “pierde” mucho tiempo copiando los ficheros de entrada al Worker Node (la red y las cintas en el caso de Castor) donde realmente el trabajo corre, copiando los ficheros de salida al Storage Element seleccionado y enviando el trabajo al Computing Element elegido por el Resource Broker. • Parece lógico en este caso (Análisis) mandar el trabajo allá donde estén los datos de entrada. Santiago González de la Hoz 32/34

  33. Sistema de producción del experimento ATLAS • Conclusiones Santiago González de la Hoz 33/34

  34. Sistema de producción del experimento ATLAS • ATLAS ha sido el primer experimento LHC que ha utilizado las tecnologías GRID para llevar a cabo una producción masiva de datos simulados a la totalidad del ejercicio. • Se han utilizado 3 “sabores” de GRID. • La producción ha sido llevada acabo de una forma coherente y automática. • Los Data Challenges 2 nos han enseñado que todos los elementos involucrados en el sistema de producción de ATLAS necesitan mejoras • En tres meses (Julio a Septiembre 2004), se enviaron mas de 235000 trabajos, se consumió mas de 1.5Millones specint2000/mes de CPU y se produjeron más de 30 TB de datos. • El modelo de análisis propuesto por ATLAS se probó con éxito en el sistema de producción. • En menos de 4 horas 350000 sucesos fueron “analizados”. Dichos sucesos estaban almacenados en diferentes lugares por todo el mundo y los trabajos de análisis se ejecutaron en un gran abanico de centros. Santiago González de la Hoz 34/34

More Related