html5-img
1 / 33

Computing in der Hochenergiephysik Von der N or D zum Grid

Computing in der Hochenergiephysik Von der N or D zum Grid. Rainer Mankel DESY Hamburg. Dortmund, 30-Nov-2002. Ü bersicht. Die Vergangenheit: ruhe sie in Frieden. Die Gegenwart. Computing eines Collider-Experiments. Wie man Commodity Hardware z ä hmt. Massenspeicher im Petabyte-Bereich.

edison
Download Presentation

Computing in der Hochenergiephysik Von der N or D zum Grid

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Computing in der Hochenergiephysik Von der NorD zum Grid Rainer Mankel DESY Hamburg Dortmund, 30-Nov-2002 R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  2. Übersicht Die Vergangenheit: ruhe sie in Frieden... Die Gegenwart • Computing eines Collider-Experiments • Wie man Commodity Hardware zähmt • Massenspeicher im Petabyte-Bereich • Internet-fähige Kollaborationsanwendungen Die Zukunft auf dem Grid R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  3. Computing an der UniDo vor 25 Jahren • Eine IBM/370 mit 20 interaktiven Terminals(Time Sharing Option) • Hollerith-Lochkartenstanzung in einer kryptischen Jobkontrollsprache (JCL) • Lochkarten-Kurierservice (1x taeglich) zum Dispatcher im “AVZ” • Turnaround 1-2 Tage Lochkarte Wann konnte man nach Hause gehen? • Wenn man kein “privilegiertes” Terminal reserviert hatte • Wenn der Kurier für heute schon weg war • Wenn die paar kByte Filespace vollwaren (also eigentlich immer...) Taschenrechner R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  4. Beginn einer Aera: die Nord... • Ein komplettes Mainframe-System (!) für zwei Lehrstühle • Betriebssystem SINTRAN-III • Editor “MOPS” • 2 Wechselplattenlaufwerke • 2 Magnetbandlaufwerke (6250 dpi) • CPU Leistung eines ND-500 Prozessors entspricht etwa der eines Intel 486DX4-Prozessors R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  5. Die ND (cont’d) geballte 300 MB Plattenspeicher ermöglichen neueste Physikresultate R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  6. Schreibringe Cut & Paste Der Terminalraum: Ort des Dialogs • Wer früh aufsteht, bekommt das Fullscreen-Terminal... • Tippen bis der Wachhund kommt Wann konnte man nach Hause gehen? • Bei “FATAL ERROR FROM SWAPPER” • Wenn “NERO” oder “Messerli” die Maschine komplett blockierten • Wenn das Wechselplattenlaufwerk im laufenden Betrieb geöffnet worden war R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  7. DESY-Computing anno Dazumal Wann konnte man nach Hause gehen? • Wenn die DESY IBM abstürzte • Wenn jemand die 3270-Emulator-Diskette zum Atari verschlampt hatte • Wenn jemand aus dem Experiment schon morgens (!) das CPU-Tagesbudget verprasst hatte • MVS3, Newlib, IPS Grafik System, Ataris mit IBM-3270-Emulation... R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  8. Tape storage incr. 20-40 TB/year MC production Data processing/ reprocessing Data mining Disk storage 3-5 TB/year ~450 Users Computing in der Hochenergiephysik heute O(1 M) detector channels 50 M  200 M Events/year Interactive Data Analysis R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  9. Mainframe, SMP Commodity hardware DM, Lit, Pta, ... Technologien: Generelle Übergänge IRIX, HP-UX, … R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  10. Vom SMP Cluster zur PC Farm • SGI Challenge XL Maschinen haben ausgedient, z.B. bei ZEUS im Frühjahr 2002 • Vendor-Systeme unwirtschaftlich  Commodity Komponenten R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  11. Heute: PC Farmen R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  12. Rekonstruktion mit modernen Farmen 3 M 2 M Events/day Rekonstruierte Ereignisse (pro Tag) 1.5 M 450 k R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  13. Die zweite Säule: Monte Carlo • Klassische Domäne der Universitäten • im Falle H1 besonders von einer... • Auch MC-Produktion profitiert von Commodity Komponenten (nach Zahlen von D. Lüke) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  14. Commodity Computing: Fluch & Segen • HERA-Experimente verwenden ca. 100 Farm-PCs pro Experiment • ca. 500 Farm-PCs bei DESY-HH • Typische “Lebensdauer” 3-4 Jahre • 1999: 350 MHz 2002: Dual 2.2 GHz • Sehr wichtig: • Hardware-Installationssupport • Linux-Support • Konsolzugang • Konfigurationspflege • Daß PC-Spiele und HEP-Analyseprogramme dieselbe Hardware benutzen, ist vermutlich nur ein Zwischenstadium • 1U-Server ? • Systemlösungen? • Was kommt nach Linux? R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  15. Zum Vergleich: Fermilab • Fermilab hat im September auf einen Schlag 434 PCs geliefert bekommen • beachtliche logistische Herausforderung: was tun wenn der Laster kommt? • wohin mit all den Kartons („Burn-in Phase“), wo einstöpseln? • Abwärme • Verdoppelt die Zahl der Einheiten (bei gleichbleibendem Personalstand) • Auch wir müssen lernen, wie man wirklich große Systeme unterstützen kann R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  16. Commodity File Server • Geänderte Paradigmen: Vergrößerung desPlattenspeichers reduziert Zahl der Zugriffe auf die Tape Library • ZEUS Disk Space (Ereignisdaten): • Anfang 2000: 3 TB davon FC+SCSI: 100% • Mitte 2001: 9 TB 67% • Mitte 2002: 18 TB 47% • Notwendiges Wachstum war in der Form nur mit Commodity Komponenten möglich • Commodity Komponenten benötigen ein „Fabric“ das Ausfälle abfedert R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  17. “The mass storage system is fundamental to the success of theexperiment” – Ian Bird at CHEP01 in Beijing R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  18. Massenspeicher • HERA-II wird mit 1 fb-1 integrierter Luminosität in den Petabyte-Bereich vorstoßen • DESY benutzt 4 STK Powderhorn Tape Silos (miteinander verbunden) • neue Medien bieten 200 GB pro Kassette (statt 20 GB) • Zugriffszeiten im Bereich < 1 min R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  19. Haben Magnetbänder eine Zukunft? • Tape • 100 $ pro Cartridge (200 GB), 5000 Cartridges pro Silo • 100 k$ pro Silo • 30 k$ pro Laufwerk (typische Anzahl: 10) • 0.9 $ / GB • Disk • 8 k$ pro DELFI2 Server (1 TB) • 8 $ / GB • Beide Medien profitieren von Erhöhung der Schreibdichte • An dieser Relation wird sich in näherer Zukunft nicht viel ändern • optimaler Einsatz von Platten als Cache • transparenter File-Zugriff (nach V. Gülzow) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  20. Ein Cache in einem Cache in einem Cache Zugriffszeit Klassisches Bild CPU 10-9 s Primary Cache 2nd Level Cache Memory Cache Disk Controller Cache 10-3 s Disk Tape Library 102 s R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  21. “All-Cache” Philosophie CPU • Disk files sind nur Cache-Images von Dateien in der Tape Library • Zugriff über einen einheitlichen Pfad, unabhängig vom Namen des Servers • optimierte I/O Protokolle Primary Cache 2nd Level Cache Memory Cache Disk Controller Cache Fabric Disk Cache Tape Library R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  22. Tape Library d C a c h e HSM Distributed disk cache servers Analysis platform Physicists R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  23. Tape Library HSM Distributed disk cache servers d C a c h e Analysis platform • Eingebaute Redundanz auf allen Ebenen • Bei Ausfall eines Cache Servers erfolgt automatisches Staging des angefordertes Files auf einen anderen Server (unterbrechungsfrei) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  24. Analysesoftware für Kollaborationen • Immer wichtiger werden Applikationen, die die Datenanalyse über das Internet hinweg ermöglichen & die beteiligten Institute besser vernetzen. • Ziel: Unterschiede in der Arbeitsumgebung zwischen Beschleunigerlabor und beteiligten Instituten verschwinden Beispiel: neues ZEUS Event Display“ZeVis” Idee: Internet-basierter Zugriff auf ein beliebiges von 200 Millionen Ereignissen innerhalb von Sekunden (z.B. von Bonn, Toronto, Tsukuba...) Volle Integration von 2D und 3D Grafik R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  25. ZeVis: Grafisches Interface R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  26. event request ZeVis server experiment data (zevis01) ApacheHTTP server dCache commonHTTPrequest method z2root /data raw2root zesagent ZES .root file cache ZeVis: Client-Server Konzept ZeVis client application R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  27. Internet-basierter Zugriff auf Online-Events downscaled event stream O(0.1 Hz) Latency O(1 min) R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  28. Verallgemeinerung: Grid-Computing • Logische Fortsetzung des “World Wide Web” R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  29. Eine Lösung und ihr Problem? Datenmengen bei LHC R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  30. LHC (Forts.) • CERN wird die Resourcen für die Rekonstruktion der Rohdaten bereitstellen, aber nur einen kleinen Teil der Analysekapazität • Ausweg: Tier-Zentren (MONARC-Modell) • Grid-Technologie R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  31. Monte Carlo Produktion a la Grid starke Ähnlichkeit mit ZEUS/Funnel... aber: Middleware Industriestandard R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  32. Datenanalyse a la Grid • “Die kBytes zu den PBytes bringen und nicht umgekehrt” R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

  33. Zusammenfassung • Die rasanten technischen Fortschritte im Bereich der Computing-Technologie sind eine wesentliche Voraussetzung für den Erfolg in der Hochenergiephysik • Commodity-Komponenten machen Leistung erschwinglich, benötigen aber ein spezielles “Fabric” mit viel Redundanz, um zuverlässig betrieben werden zu können • Die Standards bei der Physikanalyse bzgl Geschwindigkeit und Zuverlässigkeit sind erheblich gestiegen • Das Grid wird den Computing-Bereich weiter revolutionieren, auch über die Hochenergiephysik hinaus Wann wird man nach Hause gehen können? • wenn der Resource-Broker überlastet ist • wenn das eigene VO-Zertifikat abgelaufen ist • wenn das Tier-Zentrum aufgrund einer DoS-Attacke lahmgelegt ist ... R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik

More Related