atlas high level trigger daq
Download
Skip this Video
Download Presentation
ATLAS High Level Trigger/DAQ

Loading in 2 Seconds...

play fullscreen
1 / 61

ATLAS High Level Trigger/DAQ - PowerPoint PPT Presentation


  • 70 Views
  • Uploaded on

ATLAS High Level Trigger/DAQ. S.Falciano - INFN Roma1. Outline presentazione. Progetto, partecipazione, milestones 2003 HLT/DAQ TDR : stato e contenuto Global view : system requirements and “Baseline architecture” System components and functions System performance Organization and plan

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' ATLAS High Level Trigger/DAQ' - quentin-reid


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
atlas high level trigger daq

ATLAS High Level Trigger/DAQ

S.Falciano - INFN Roma1

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

outline presentazione
Outline presentazione
  • Progetto, partecipazione, milestones 2003
  • HLT/DAQ
      • TDR : stato e contenuto
        • Global view : system requirements and “Baseline architecture”
        • System components and functions
        • System performance
        • Organization and plan
      • TDR : contributi italiani
      • Milestone 2004
      • Testbeam 2003/2004
  • Conclusioni

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

attivit italiane
Attività italiane
  • Trigger di Livello-1 muoni (barrel) (Napoli, Roma1, Roma2)
  • Trigger di Livello-2 muoni (barrel) (Pisa, Roma1)
  • Trigger di Livello-2 pixel (Genova)
  • Event Filter (Lecce, Pavia, Roma3)
  • DAQ (LNF, Pavia, Roma1)
  • DAQ testbeam (TDAQ + gruppi detector)

9 Sezioni INFN più Rivelatori e Offline (32 fisici per HLT/DAQ)

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

incarichi nel progetto tdaq
Incarichi nel progetto TDAQ
  • S.Veneziano (Roma1) -> Coordinatore trigger LVL1 muoni barrel+endcap+MUCTPI
  • V.Vercesi (Pavia) -> Coordinatore PESA (Physics and Event Selection Architecture)
  • A.Nisati (Roma1) -> IB Chairperson e Coordinatore algoritmi muoni in PESA
  • F.Parodi (Genova) -> Coordinatore algoritmi b-tagging in PESA
  • A. Negri (Pavia) -> Coordinatore Data Flow Software per l’Event Filter
  • S.Falciano (Roma1) -> Coordinatore Detector Readout nel DIG e Detector HLT slices

... e per i testbeam

  • P.Morettini (Genova) -> Coordinatore DAQ testbeam H8 pixel
  • E.Pasqualucci (Roma1) -> Coordinatore DAQ testbeam H8 muoni

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

stato milestones hlt daq 06 2003
Stato Milestones HLT/DAQ 06/2003
  • Marzo
    • Scrittura del nuovo software di Data Flow dell\'Event Filter e Monitoring.

100% Il software, il cui disegno era iniziato nel 2002, e‘ stato completamente sviluppato ed e\' ora utilizzato su testbeam.

    • Integrazione completa del software di calibrazione dellecamere MDT nell\'EF/DAQ del Testbeam.

100% Anche questa integrazione, iniziata nel 2002, è stata effettuata ed e\' operativa nell\'attuale testbeam.

  • Aprile
    • Integrazione e test "slice" verticale LVL1/HLT/DAQ/DCS per unrivelatore ATLAS (e.g. rivelatore di muoni) in laboratorio.

100% Integrazione effettuata in laboratorio per LVL1/RPC/TGC

e camere MDT (elettronica di lettura e software di acquisizione e trigger). Il testbed e\' stato particolarmente utile per la messa a punto del software e di parte dello hardware per il testbeam del 2003.

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

stato milestones 06 2003 cont
Stato Milestones 06/2003 (cont.)
  • Giugno
    • Sottomissione al LHCC del Technical Design Report diHLT/DAQ/DCS.

100% Milestone raggiunta il 30/6/2003. Il TDR è ora in ristampa e verrà presentato al LHCC il 24/9/2003. I contributi italiani sono stati notevoli ed hanno riguardato il DAQ e i trigger di alto livello (LVL2 per Pixel e Muoni, adattamento dei programmi di ricostruzione offline all\'Event Filter, framework software e responsabilità di alcuni capitoli importanti quali quello di PESA).

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

tdr stato e contenuto
TDR : stato e contenuto
  • Sottomesso al comitato LHC il 30/6/2003
    • ATLAS High-Level Trigger, Data Acquisition and Controls Technical Design Report, CERN/LHCC/2003-022
    • Feedback molto positivo dalla “LHCC comprehensive review” del 2 luglio su HLT/DAQ

“The architectural open issues have essentially been resolved,

an offline-online collaboration is building up,

beam- and laboratory tests have been performed, the extensive

DCS-implementation and the management structure.”

    • Presentazione di ATLAS alla“Open LHCC session” del 24/9/2003 al CERN

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide8

Part 1 - Global View

1. Overview

2. Parameters

3. System Operations

4. Physics selection strategy

5. Architecture

6. Fault tolerance and error handling

7. Monitoring

Part 2 - System Components

8. Data-flow

9. High-level trigger

10. Online Software

11. DCS

12. Experiment Control

Part 3 - System Performance

13. Physics selection and HLT performance

14. Overall system performance and validation

Part 4 - Organisation and Plan

15. Quality assurance and development process

16. Costing

17. Organisation and resources

18. Workplan and schedule

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

tdr part 1 global view
TDR Part 1 : Global view

La scelta dell’architettura si è basata sui seguenti criteri :

  • La copertura del programma di fisica prevista da ATLAS
  • L’esistenza di prototipi funzionanti
  • Misure di “performance” che soddisfano o le specifiche finali di ATLAS o possono essere tranquillamente estrapolate alle performance richieste sulla scala dei tempi reali (CPU speed dei PC, ….)
  • La chiarezza di come evolvere dallo scenario iniziale di set-up ridotto, quale quello utilizzato su testbeam, al sistema completo ad alta luminosità
  • Uno scenario dei costi che parte dallo “staged detector” fino al completamento del sistema
  • La possibilità di trarre vantaggio dall’evoluzione della tecnologia mentre l’esperimento è in corso

L’architettura proposta potrebbe essere costruita oggi con le tecnologie attuali e raggiungere le performance richieste. Poichè sono previsti avanzamenti significativi nel campo del networking e computing, ciò ci aiuterà a semplificare ulteriormente alcuni aspetti complessi del sistema.

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide10

ARCHITECTURE

40 MHz

ROD

75 kHz

120 GB/s

ROB

ROB

ROB

ROIB

L2SV

L2N

~2+4 GB/s

L2P

~2 kHz

EBN

SFI

DFM

EFN

EFP

EFP

EFP

EFP

SFO

~ 200 Hz

~ 300 MB/s

Trigger

DAQ

Calo MuTrCh

Other detectors

40 MHz

D

E

T

RO

LV

L1

FE Pipelines

2.5 ms

Lvl1 acc = 75 kHz

Read-Out Drivers

RoI

RoI data = 1-2%

120 GB/s

Read-Out Links

D

A

T

A

F

L

O

W

H

L

T

~ 10 ms

Read-Out Buffers

LVL2

ROS

RoI

requests

RoI Builder

L2 Supervisor

L2 N/work

L2 Proc Unit

Read-Out Sub-systems

Lvl2 acc = ~2 kHz

Dataflow Manager

EB

Event Building N/work

~ sec

Event Filter

Sub-Farm Input

~4 GB/s

Event Builder

Event Filter

Processors

Event Filter N/work

EFacc = ~0.2 kHz

Sub-Farm Output

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

meccanismo delle roi implementazione
Meccanismo delle RoI - Implementazione
  • C’è una corrispondenza semplice tra :h-f region <-> ROB number(s)(per ciascun rivelatore)-> per ciascuna RoI, i processori di LVL2 possono identificare rapidamente la lista dei ROB con i correspondenti dati di ciascun rivelatore
  • Questo meccanismo fornisce un modo potente ed economico per avere un importante fattore di reiezione prima

dell’ Event Building completo

==> ATLAS RoI-based Level-2 trigger

… ~ ReadOut network più piccolo

di un ordine di grandezza …

… al costo di un maggiore

traffico di controllo …

4 RoI

-faddresses

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide12

Level-2 Trigger

Three parameters characterise the RoI-based Level-2 trigger:

the amount of data required : 1-2% of total

the overall CPU time : 10 ms average

the rejection factor: x 30

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

tdr part 2 system components
TDR Part 2 : System components
  • Data Flow (DAQ)
  • High-Level Triggers
    • LVL2, EF, Event Selection Software (ESS)
  • Online Software (DAQ)
  • DCS
  • Experiment Control

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide14

R

C

P

R

O

D

R

O

D

R

O

D

R

O

D

NIC

ROD Crate

Workstation

ROBIN

ROBIN

ROBIN

RCD and ROS

F.E. Electronics

Event Fragments

(Detector specific)

Config & Control

VME bus

Event sampling &

Calibration data

… ROD Crates

Config & Control

Event sampling &

Calibration data

LAN (GbEth.)

ROLs

ROD Fragments

  • Total number of ROD crates: 90
  • Total number of ROS PCs : 144
  • Total number of racks : ~15”

==>All in USA15 (underground)

… ROS PCs

PCI bus

ROB Fragments

ROS Fragments

GbEth.

L2 & Event Builder Networks

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

the robin prototype
The ROBin Prototype

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide16
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1
slide17
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1
hlt event selection software
HLT Event Selection Software

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide19

Realistic Data Access

Realistic bytestream format data generated using simulated events from

DataChallenge-1. Used to measure data access and preparation times

Different implementations for LVL2, EF and Offline

Bytestream converters produce objects required by algorithms. Handle ROB mapping, calibration, etc.

Requires detailed understanding of the detector and read-out

Use of off-line services. TES uses Storegate

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

tdr part 3 system performance
TDR Part 3 : System Performance
  • DataFlow for LVL2 (RoI collection) and EF tested and required performance demonstrated
  • LVL2 processing with algorithms and simulated data in realistic format tested in full trigger environment
    • Required performance demonstrated with LAr and Muon Detectors using dedicated data preparation code
    • Further optimisation needed for data preparation code from offline (specially true for calorimetry code)
  • Functional test made of HLT vertical slice
  • Results validate the RoI mechanism,  only ~2% of the data after LVL1 needs to be moved over networks
  • Further work needed to validate use of off-line services in LVL2, but outlook promising

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide21
LVL2 track reconstruction for b-tagging selectionImpact parameter resolution vs pT u-jet rejection vs b-tagging efficiency

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide22

Perfect match of the two resolutions for pt = 20 GeV

mFast physics

performance

HLT TP, layout M

HLT TP, layout M

HLT TDR, layout P

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

moore event filter muon reconstruction
Risoluzione in impulso

Efficienza

MOORE – Event Filter muon reconstruction

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

lvl2 performance test

LVL2 Processing Task

LVL1

Result

Input

Handler

Event

Queue

LVL1

Result

Event

Selection

Threads

LVL2Supervisor

LVL2

Result

LVL2 Performance Test
  • The LVL2 performance has been measured on a cluster using a 2.2 GHz Dual Xeon for the L2P fetching data via Gigabit Ethernet
    • Simulated LVL1 selected Di-jets eventsloaded in the ROS(E)
    • Ran LAr LVL2 selection algorithms in LAr data.
  • LVL2 selection uses specially written algorithms in multi-threaded tasks
    • Highly optimized (decision time ~10ms)
    • Thread-safe

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

integral plots of each part of the lvl2 calo processing time after optimization
Integral plots of each part of the LVL2 Calo processing time - after optimization

Largest contribution is from Data Preparation

Algorithm is the smallest contribution to the processing time

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide26
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1
ef data flow

EFP

EFD

SFO

SFI

EF Data Flow

InputTask

Sorting

Task

  • In each EF Processor (EFP) the EFD application handles the flow of events
  • The Event Selection Software runs in separate PT applications
  • The complete event is in shared memory and the PT is passed a pointer (avoids copying)
  • The PT write the EF Result into the shared memory
  • For accepted events the Output task combines the EF Result into the event

Counting

Task

PreProc.

Task

PT

PT

PT

ExtPTs

Task

ExtPTs

Task

PT

PT

PostProc.

Task

Histogr.Task

Output

Task

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide28
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1
tdr part 4 organization and plan 3
TDR Part 4 : Organization and Plan (3)

Workplan and schedule

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

contributi italiani al tdr
Contributi italiani al TDR
  • Studio e validazione delle componenti DAQ
    • Data Flow (Data Collection e Event Filter)
    • Online software (Configurazione, Monitoring, Run Control)
    • Detector software (ROD Crate DAQ, Data Format, Monitoring)
  • Studio e validazione degli HLT
    • Software framework (Athena)
    • Algoritmi di livello-2 (Pixel e Muoni)
    • Algoritmi di filtro e calibrazione ottenuti dai programmi offline (e.g. MOORE per la ricostruzione e CALIB per la calibrazione dei muoni)
    • Uso online dello schema di acceso ai dati dei rivelatori e alla loro geometria secondo l’Event Data Model (definizione e sviluppo software dei formati ByteStream dei dati dei rivelatori utilizzati e della loro definizone ad oggetti, Raw Data Objects utile per gli algoritmi di trigger)
  • Contributo alla scrittura e al coordinamento di importanti capitoli del TDR (vedi PESA)

Sono state prodotte dai gruppi italiani o in collaborazione con altri gruppipiù di 20 note ATLASquali documenti di supporto al TDR.

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

milestones 2004
Milestones 2004
  • Marzo
    • Integrazione Livello-2/Event Filter/DAQ su Testbed al CERN con il Livello-1 in emulazione.
  • Ottobre
    • Integrazione Detector/Livello-1/Livello-2/Event Filter/DAQ/DCS su Testbeam Combinato (Pixel-Lar-Tile-MDT-RPC).

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide32

Trigger scintillator

The HLT/DAQ at the test beam - 2003

In ATLAS, we value the strategy of real life use (test beam, test sites) of “final system” software releases, used for performance measurements on test beds

The same complete DAQ (and HLT framework) software release

is used on test beds

and at the test beam

ATLAS Combined run at H8 - Sep 2003Pixel - SCT - “Phantom EM” - TileCal - MDT - RPC - TGC ROD

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

h8 test beam setup 2003

H8 TDAQ

H8 test beam setup - 2003

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide34
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1
dataflow performance at h8
Dataflow performance at H8

Event rate

Dataflow measured on a test-beam-like implementation of standard release without and withEvent Filter framework==> Performance beyond detector data-taking capability

Data throughput

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

tilecal monitoring at h8
TileCal Monitoring at H8
  • Event Display and Monitoring task

based on Online Software tools

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide37
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1
in 2004 in h8
In 2004 in H8…
  • A Calorimeters Combined Test Beam
    • LAr & Tilecal on the same rotating table
  • A Inner Detector Combined Test Beam
    • Pixels and SCT (in the same box?)
    • TRT with a barrel slice
  • Muon chambers: MDT, RPC, TGC

Why not to have an ATLAS Barrel slice?

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

set up 2004
Set-up 2004

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

what type of measurements
What type of measurements?
  • This is a unique occasion to intercalibrate the Barrel e.m. and the hadronic calorimeters
    • Energy sharing
    • Shower containment
    • Weighting techniques studies
    • Linearity, resolution, e/h, etc.
  • Alignment and tracking of the Inner Detector components
  • All interesting combinations

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

hlt daq al testbeam 2004
HLT/DAQ al Testbeam 2004
  • Common Trigger
  • Local Network
  • Integrazione degli HLT (LVL2 & EF)
  • Ultima versione del software DAQ (Data Flow & Online)
    • Migrazione da DAQ-1 a DAQ-0 (Pre-series prototype)
  • Integrazione del DCS (Common Infrastructure & Sub-Detector layers)
  • Altri item comuni importanti anche per il DAQ

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

many levels where to combine
Many levels where to combine…
  • Electronics and trigger
    • Master trigger & common busy in “normal” operations; combination of TTC partitions; Timing of each sub-detector (long baseline)
    • Readout: event-by-event; will all sub-detectors be read out in fully pipelined mode?
  • Detectors & LVL1
    • Making sure that LVL1-sources are there, as well as destinations
      • Tilecal & LAr tower signals
      • RPC (& TGC)

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

many levels where to combine 2
Many levels where to combine… (2)
  • Detectors (via DAQ) & LVL2
    • All sub-detectors “contribute” to LVL2
  • Detectors & DAQ
    • Review and install :
      • Read-Out Links (input from sub-detectors)
      • DAQ ROS machines (Read-Out Systems)
      • DAQ SFI machines (Keeping today situation of 1 PC per detector?)
    • Use of the ATLAS TDAQ Data Format
  • Detectors & DCS

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

many levels where to combine 4
Many levels where to combine… (4)
  • Event Filter
    • One of the most interesting places where to combine the sub-detectors
    • It forces offline programs to be fast and ready well before offline data analysis starts
    • Last year we had Pixel, Tilecal and Muons analysis programs working together in EF, but never combining data of a given sub-detector with the others: this is what we must do,even if already done this year with Muon & Tile

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

many levels where to combine 5
Many levels where to combine… (5)
  • Offline
    • As soon as the geometry of the setup is defined, the simulation of all detector components can start
    • A way to use the “combined reconstruction”
    • If everything works in ATHENA (ATLAS software framework) also EF can benefit and vice versa
    • Analysis programs of the sub-detectors have to converge to a unique output

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

tentatively in 2004 schedule dated 3 9 2003
Tentatively in 2004…(schedule dated 3/9/2003)

Fully combined

partially combined

Stand alone runs

SPS proton run: 23 weeks + 2 “25 ns” weeks

4-6 weeks at the beginning

4-6 weeks at the end

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

beam availability
Beam availability
  • Pions, electrons
    • 1-9 GeV, 10-20 GeV, 30-300 GeV
    • Intensity up to 108/spill in specially shielded zones (4.8 sec spill). Typical 106/spill
  • Muons
    • 20-300 GeV
    • Intensity up to 106-107 (limited by radiation protection issues because the zone is not completely shielded)
  • Photons
    • Production of electron/photon by secondary beam at 180 GeV maximum

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide48

SCT

TRT

Tilecal

Tilecal

S

B

C

R

O

D

s

G

P

M

S

B

C

R

O

D

G

P

M

S

B

C

R

O

D

G

P

M

S

B

C

R

O

D

G

P

M

S

B

C

G

P

M

G

P

M

ROD Crate

ROD Crate

ROD Crate

ROD Crate

Beam Crate

Muons

S

B

C

G

P

M

G

P

M

Beam Crate

RPC

S

B

C

R

O

D

G

P

M

LAr

MDT

CTP & CTPI

S

B

C

R

O

D

G

P

M

S

B

C

R

O

D

G

P

M

S

B

C

R

O

D

R

O

D

ROD Crate

ROD Crate

ROD Crate

ROD Crate

Pixel

* n

ID ROS

* n

LAr ROS

Tilecal ROS

Combined run 2004 - Global layout

Muon ROS1

LVL1 Calo

Muon ROS2

S

B

C

R

O

D

R

O

D

LVL1 Calo ROS

* n

CTP ROS

ROD Crate

To EB/EF

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

additional h w for hlt vertical slice
Additional h/w for HLT Vertical Slice
  • Additional hardware needed
    • RoIB (Mk II ?)
    • 1 LVL2 Supervisor
    • 1 LVL2 Processor
    • 1 pROS
  • DAQ + EF Hardware already in use at the Test Beam
    • 1 DFM
    • 1 SFI
    • 1 EF Processor
    • 1 SFO

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide50

DSS

Operator

IF

Data

Viewer

Alarm

IF

DAQ IS

LHC

DAQ MRS

Magnet

DIP

DAQ RC

CERN

DCS_IS

Config

DB

Conditions

DB

Tile

Pixel

SCT

TRT

MDT

TGC

RPC

(CSC)

LAr

OPC

LCS

EB-

LCS

B-

LCS

B+

LCS

EB+

LCS

LCS

PC

LCS

LCS

OPC

OPC

OPC

OPC

OPC

HEC

HV

Temp

Purity

ISEG

HV

FE

Crates

HV/

LV

Cooling

LV

HV

Misc.

CAN

PVSS

DDC

OPC

DCS Back-End Architecture

Global Control Station

(GCS)

Subdetector Control Stations (SCS)

CIC

Local Control Stations (LCS)

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

configuration conditions databases data flow physics run

Measured

Conditions

All Conditions

Configuration & Conditions Databases(Data Flow – Physics Run)

Detector

Configuration

Data

DCS

DAQ

Conditions

Data

HLT

Offline

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

simulation reconstruction and analysis tools
Simulation, Reconstruction and Analysis tools
  • Goal is to treat the Combined Testbeam like a Data Challenge(approximately coincident in time with DC2)
  • Major Software Releases Deliverables :
    • LCG Component Integration
    • Geant4 Integration & Validation
      • Full detector simulation
      • Digitization in place for all detectors
    • Pile-up Infrastructure in place
      • All detectors supported
    • Detector Description Integration
      • Reconstruction and G4 Simulation from common geometry
    • Calibration/alignment infrastructure in place
    • Physics Analysis environment
      • Interactive as well as batch
    • GRID integration
atlas computing timeline

2003

NOW

2004

2005

2006

2007

ATLAS Computing Timeline

• POOL/SEAL release

• ATLAS release 7 (with POOL persistency) =>end Oct 2003

• LCG-1 deployment

• ATLAS complete Geant4 validation

• ATLAS release 8 => begin Feb 2004

• DC2 Phase 1: simulation production

• DC2 Phase 2: intensive reconstruction (the real challenge!)

• Combined test beams (barrel wedge)

• Computing Model paper

• ATLAS Computing TDR and LCG TDR

• DC3: produce data for PRR and test LCG-n

• Computing Memorandum of Understanding

• Physics Readiness Report

• Start commissioning run

• GO!

evoluzione del sistema e staging
Evoluzione del sistema e staging
  • Il sistema TDAQ è stato disegnato tale che dimensioni e performance evolvano in funzione della disponibilità delle risorse. Le performance finali corrispondono ad una trigger rate di Livello-1 di 100 kHz.
  • La stima dei costi del TDAQ di ATLAS è basata su un modello dettagliato del numero di componenti in funzione della rate di trigger di Livello-1 (e.g. 37.5 kHz, 75 kHz, 100 kHz).
  • Fattori di sicurezza sono applicati soprattutto nel tenere conto delle performance degli HLT (tempo di processamento degli eventi e fattori di reiezione) e del costo di componenti “custom” (come ad esempio i ROBin) e “commerciali” (come ad esempio i processori).
  • Si è arrivati a definire un profilo temporale di spesa che è un’evoluzione del sistema a partire dal commissioning del detector fino alla realizzazione di un TDAQ con le sue performance finali

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

slide55

Costi HLT/DAQ

Architettura scalabile-> implementazione ottimale del piano di deferral dei finanziamenti e di upgrade futuri

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

pre serie di hlt e daq
Pre-serie di HLT e DAQ
  • Include una versione su piccola scala del sistema allo scopo di validare l’implementazione del TDAQ (e.g. 10% di Detector R/O, 1 switch per LVL2, 1 switch per EF, 2 sub-farm nella loro versione a “rack” di ATLAS e 5% del sistema online)
  • Il dimensionamento è stato fatto essenzialmente su criteri di “funzionalità”
  • E’ un sistema di dimensioni superiori ai testbed di cui disponiamo attualmente utilizzati per fare sviluppi e misure di performance. All’uopo si possono aggregare i due switch e le due sub-farm per provare solo il LVL2 o solo l’EF in una configurazione più estesa
  • Si basa sulle tecnologie finali
  • Userà il software finale del Data Flow e dell’Online
  • L’uso previsto è in laboratorio, ma in caso di necessità si potrà utilizzare per far partire il commissioning del Tile Calorimeter (primo rivelatore ad installarsi)

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

conclusioni 1
Conclusioni (1)
  • Il sistema Trigger&DAQ di ATLAS sarà implementato con tre livelli di trigger e farà uso del meccanismo diRegion-of-Interest:
    • Importante riduzione nel trasferimento dei dati
  • Il disegno del sistema è completo ma aperto a:
    • Ottimizzazione dell’I/O a livello di Read-Out System
    • Ottimizzazione dell’uso deinetwork di LVL2 e Event Builder
  • L’architetturaè stata validata con:
    • Testbed di varie dimensioni e ottimizzati per scopi diversi
    • Test Beam ad H8
  • L’architetturaè scalabile:
    • Permettendo il piano di “deferral” di ATLAS
    • Aperta a futuri upgrade

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

conclusioni 2
Conclusioni (2)
  • Studi di performance degli HLT sono basati sualgoritmi completie sudati con un formato realistico.
    • La preparazione dei dati(non il tempo di accesso) richiede un tempo di processamento sostanzioso.
  • La strategia di ATLAS di usare dellecomponenti software dell’Offlineper gliHLTè fattibile e sostenuta da misure recenti.
  • Si è stabilito un utilelinkOnline-Offlineche ha prodotto:
    • Sharing degli sviluppi
    • Feedback per una ottimizzazione globale del software.

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

riserve
Riserve

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

costi di hlt daq approx in kchf
Costi di HLT/DAQ(approx.) in kCHF

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

costi di hlt daq approx in keuro
Costi di HLT/DAQ(approx.) in kEuro

Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1

ad