slide1 n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
YÜKSEK ENERJI F?Z??? VE GRID Ramazan Sever ORTA DO?U TEKN?K ÜN?VERS?TES? ULUSAL GRID ÇALI?TAYI 2005 21-22 Eylül 2005, An PowerPoint Presentation
Download Presentation
YÜKSEK ENERJI F?Z??? VE GRID Ramazan Sever ORTA DO?U TEKN?K ÜN?VERS?TES? ULUSAL GRID ÇALI?TAYI 2005 21-22 Eylül 2005, An

Loading in 2 Seconds...

play fullscreen
1 / 25

YÜKSEK ENERJI F?Z??? VE GRID Ramazan Sever ORTA DO?U TEKN?K ÜN?VERS?TES? ULUSAL GRID ÇALI?TAYI 2005 21-22 Eylül 2005, An - PowerPoint PPT Presentation


  • 184 Views
  • Uploaded on

YÜKSEK ENERJI FİZİĞİ VE GRID Ramazan Sever ORTA DOĞU TEKNİK ÜNİVERSİTESİ ULUSAL GRID ÇALIŞTAYI 2005 21-22 Eylül 2005, Ankara. KONULAR. • LHC Çarpıştırıcısı • Grid ve Yüksek Enerji Fizği • Grid Yapılanması • Geleckteki durum . Bilgisayar Ağları, Grid ve Large Hadron Collider (LHC).

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about 'YÜKSEK ENERJI F?Z??? VE GRID Ramazan Sever ORTA DO?U TEKN?K ÜN?VERS?TES? ULUSAL GRID ÇALI?TAYI 2005 21-22 Eylül 2005, An' - cambria


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
slide1

YÜKSEK ENERJI FİZİĞİ VE GRID

Ramazan Sever

ORTA DOĞU TEKNİK ÜNİVERSİTESİ

ULUSAL GRID ÇALIŞTAYI 2005

21-22 Eylül 2005, Ankara

konular
KONULAR

• LHC Çarpıştırıcısı

• Grid ve Yüksek Enerji Fizği

• Grid Yapılanması

• Geleckteki durum

slide3

Bilgisayar Ağları, Grid ve

Large Hadron Collider (LHC)

slide4

LHC – the Large Hadron Collider

27 Km of magnetswith a field of 8.4 Tesla

Super-fluid Heliumcooled to 1.9°K

Two counter-circulating proton beams

Collisionenergy 7 + 7 TeV

The world’s largest super-conducting structure

slide6

CMS

ATLAS

LHCb

4 büyük dedektör

Depolama – Veri Kayıt Hızı 0.1 – 1GByte/s

Depolanan veri 10-14 PetaBytes/yıl

~ 20 milyon CD

Gerekli İşlem gücü –

En hızlı 100,000 kişisel bilgisayar

slide7

LHC DATA

1Megabyte(1MB)A digital Photo

1 Gigabyte(1GB)

A DVD Movie

1 Terabyte(1 TB)=1000GB

World Annual book production

1 Petabyte(1PB)

Annual production of one LHC exp.

1 Exabyte(1EB)=1000 PB

World annual Information production

40 million collisions per second

After filtering, 100 collisions of interest per second

A Megabyte of data digitised for each collision

= recording rate of 0.1 Gigabyte/sec

10 to 10 collisions recorded each year

=10 Petabytes/year of data

slide8

TİPİK BİR OLAY

İlk Hali

Son hali

slide9

Bilgi işlem zorlukları: Petabytes, Petaflops

  • Temel Zorluklar:
    • Uzaktan haberleşme ve işbirliği
    • Küresel veri ve bilgi işlem gücünün yönetilmesi
    • Ortak yazılım geliştirilmesi ve fiziksel analizler
slide11

Çözüm

Daha önce birbirinden bağımsız çalışan bilgi işlem merkezlerinin artık bağlanarak birlikte çalışmalarının sağlanması.

İşbirliği yapan kuruluşların bilgi işlem kaynaklarını da birleştirmeleri.

Yani GRID

Ağ Kapasitesi

Merkezler arasında 10 - 40 Gbps bağlantılar

slide12

Grid Nedir?

  • World Wide Web yoluyla farklı coğrafyalardaki milyonlarca bilgisayarda bulunan bilgiye limitsiz ve sınırsız ulaşıyoruz
  • Dünya üstündeki bilgi işlem gücü ve veriye sınırsız ulaşmanın yolu olan yeni altyapının adıysa Grid’dir
  • Grid adı elektrik güç dağıtım sisteminden gelmektedir.
slide13

Grid Nedir?

Kaynakların (işlem güçü, depo, veri...) esnek, güvenli, eşgüdümlü olarak, kişi ve kuruluşlar tarafından paylaşımı.

Ortak hedeflere ulaşmak üzere çalışan grupların (sanal organizasyonlar), coğrafik olarak dağıtık kaynakları paylaşması; Bunu yaparken

  • Merkez
  • Merkezi kontrol
  • Herşeyi bilen kişiler
  • Güvene dayalı ilişkiler

olmayacağını bilmesi.

slide14

HPSS

HPSS

HPSS

LHC Data Grid Hierarchy

CERN/Outside Resource Ratio ~1:2Tier0/( Tier1)/( Tier2) ~1:1:1

~PByte/sec

Online System

100-400 MBytes/sec

Tier 0 +1

CERN 700k SI95 ~1 PB Disk; Tape Robot

Tier 1: 10 GpsG

HPSS

  • IN2P3 Center

INFN Center

FNAL: 200k SI95; 600 TB

RAL Center

Tier 2: 2.5/10 Gbps

Tier2 Center

Tier2 Center

Tier 3: ~2.5 Gbps

Institute ~0.25TIPS

Institute

Institute

Physics data cache

Tier 4: 0.1–1 Gbps

Workstations

Workstations

slide15

Lab m

Uni x

CERN Tier 1

Uni a

UK

USA

Lab a

France

Tier 1

Tier3

physics

department

Uni n

Tier2

……….

Italy

CERN Tier 0

Desktop

Lab b

Germany

……….

Lab c

Uni y

Uni b

LHC Computing

Model

slide16

Lab m

Uni x

Uni a

CERN Tier 1

UK

Lab a

USA

France

Tier 1

Fizik Bölümü

Uni n

Tier2

Japan

Italy

CERN Tier 0

Germany

……….

Lab b

Lab c

Uni y

Uni b

slide20

Kullanım Modları

  • T1-T1 ve T1-T2 arasında arka plan veri değişimi – dağıtımı
  • Uç birimlerden T1 ve T2 merkezlerine verilen analiz işlerinde veri ve işlem gücü Kaotik ve talep üzerine
  • T0 dan T1’e veri transferi “Buffered real-time”
slide21

Bilgisayar ağ’ı altyapı hedefleri

Ağ altyapısının grid uygulamalarına neredeyse saydam hale getirilmesi

  • Ne kadar başarılabilecek???

Yüksek hızlı Ağ (WAN) çalıştırılması (50-100 Gbps)

Daha iyi LAN (WAN’dan daha hızlı?)

Sınırsız LAN – WAN bağlantıları

Firewall ne olacak???

Şu anda neredeyiz:

bellekten belleğe: 6.5Gbps

disk’ten disk’e: 400MB/s (Linux), 1.2MB/s (Windows 2003 server/NewiSys)

slide22

The LHC Computing Grid Project

Two phases

Phase 1 – 2002-04

  • Development and prototyping
  • Approved by CERN Council 20 September 2001

Phase 2 –2005-07

  • Installation and operation of the full world-wide initial production Grid
slide23

The LHC Computing Grid Project

Phase 1 Goals –

  • Prepare the LHC computing environment
    • provide the common tools and infrastructure for the physics application software
    • establish the technology for fabric, network and grid management (buy, borrow, or build)
    • develop models for building the Phase 2 Grid
    • validate the technology and models by building progressively more complex Grid prototypes
    • operate a series of data challenges for the experiments
    • maintain reasonable opportunities for the re-use of the results of the project in other fields
  • Deploy a 50% model* production GRID including the committed LHC Regional Centres
  • Produce a Technical Design Report for the full LHC Computing Grid to be built in Phase 2 of the project
slide24

Funding of Phase 1 at CERN

Funding for R&D activities at CERN during 2002-2004 partly through special contributions from member and associate states

  • Major funding – people and materials - from
    • United Kingdom – as part of PPARC’s GridPP project
    • Italy – INFN
  • Personnel and some materials at CERN also promised by – Austria, Belgium, Bulgaria, Czech Republic, France, Germany, Greece, Hungary, Israel, Spain, Switzerland
  • Industrial funding – CERN openlab
  • European Union – Datagrid, DataTag
  • Funded so far - all of the personnel, ~1/3 of the materials
slide25

Areas of Work

Computing System

  • Physics Data Management
  • Fabric Management
  • Physics Data Storage
  • LAN Management
  • Wide-area Networking
  • Security
  • Internet Services

Grid Technology

  • Grid middleware
    • Scheduling
    • Data Management
    • Monitoring
    • Error Detection & Recovery
  • Standard application services

Applications Support & Coordination

  • Application Software Infrastructure – libraries, tools
  • Object persistency, data models
  • Common Frameworks – Simulation, Analysis, ..
  • Adaptation of Physics Applications to Grid environment
  • Grid tools, Portals

Grid Deployment

  • Data Challenges
  • Integration of the Grid & Physics Environments
  • Regional Centre Coordination
  • Network Planning
  • Grid Operations