1 / 80

La rete per l’INFN: oggi e domani per LHC

La rete per l’INFN: oggi e domani per LHC. Enzo.Valente@roma1.infn.it Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002. “il GARR” e “la Rete GARR”.

wilbur
Download Presentation

La rete per l’INFN: oggi e domani per LHC

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. La rete per l’INFN: oggi e domani per LHC Enzo.Valente@roma1.infn.it Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002

  2. “il GARR” e “la Rete GARR” • GARR e’ il nome dell’associazione tra Universita’ ed enti di ricerca governativi promossa da CRUI, CNR, ENEA e INFN con la ‘benedizione’ del MIUR. • GARR e’ anche il nome assegnato alla Rete informatica dell’ Universita’ e della Ricerca Scientifica italiana. • La Rete GARR interconnette tutte le Universita’ (Statali e non) e tutte le sedi degli enti di ricerca scientifica (CNR, ENEA, INFN, Osservatori, etc.), nonche’ istituzioni culturali o di ricerca a carattere accademico, scientifico e tecnologico per un totale di circa 300 siti.

  3. La Storia della Rete GARR • Armonizzazione e sinergia tra Universita’ e Enti di Ricerca • 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’. • 1990-1994: rete GARR(-1), prima rete unitaria di Universita’ e Ricerca • 1994-1998: rete GARR-2, evoluzione di GARR-1 • 1998-2002: rete GARR-B (Broadband) • 2003-2006: rete GARR-G (Giganet)

  4. La Storia della Rete GARR (1/5) • 1973-1990:reti indipendenti di CNR, ENEA,INFN e Universita’ (consorzi CILEA,CINECA,CSATA, etc.) • Banda passante di accesso e trasporto tra 9.6 e 64Kbps (ma inizialmente anche dial up a 300-2400 Bit/sec) • collegamenti internazionali:- CNR(Pisa)-USA a 64Kbit/sec (SatNet, Maggio ’86)- INFN-CNAF(Bologna)-CERN(Ginevra) a 2Mbit/sec (Luglio ’89)- Accessi diretti e indiretti a EBONE e EARN • Partecipazione a Iniziativa Europea COSINE (2.o PQ europeo) • Protocolli ‘proprietari’, Bitnet, Decnet, TCP/IP e X25 • Applicazioni di remote login, mail, file transfer/access • ‘gateway’ per l’interconnessione tra le reti

  5. La Storia della Rete GARR (2/5) • 1990-1994: rete GARR, prima reteunitaria di Universita’ e Ricerca • infrastruttura su 7 PoP interconnessi a 2 Mbit/sec (AS137) • Milano-CILEA, Bologna-CINECA, Bologna-CNAF, Pisa-CNUCE, Frascati-ENEA, Roma-INFN, Bari-CSATA • collegamenti internazionali da INFN-CNAF (Bologna): • CERN-Ginevra (2Mbit/sec dal 27 Luglio 1989) • ESNet-Princeton (64Kbit/sec) • Reti Europee COSINE (64Kbps su X25) e Europanet (2Mbps su IP) • accessi sedi universitarie e enti di ricerca fino a 2Mbit/sec • Protocollo TCP-IP e compatibilita’ Decnet e Bitnet • Partecipazione ai progetti europei del 3.o Programma Quadro • GARR fondatore e membro di Associazioni RARE, RIPE e ISOC. • GARR membro di EARN • cofinanziamento MURST di 5GL (CRCS-MURST) • Gestione amm.va Progetto: CILEA. • Gestione GARR-NOC: CINECA

  6. La Storia della Rete GARR (3/5) • 1994-1998: rete GARR-2, evoluzione di GARR-1 • infrastruttura basata su 15 PoP (in sedi di universita’, di consorzi o di enti di ricerca) interconnessi con circuiti di capacita’ compresa tra 2Mbps e 34Mbit/sec (15 AS) e capacita’ aggregata del backbone da 30Mbit/sec iniziali a 200Mbit/sec a finali • collegamenti internazionali (AS137): • ESNet-(USA) a 1.5 Mbit/sec (fino a Marzo 2000) • EuropaNet e CERN a 2Mbit/sec (fino a meta’ ’97) • TEN-34 (ATM-24Mbit/sec con Ginevra e ATM-20Mbit/sec con Francoforte) a 34Mbit/sec (dalla meta’ del ’97) • protocolli TCP-IP e compatibilita’ con Decnet; gw con Bitnet • accessi a velocita’ tra 64Kbit/sec e 34Mbit/sec in CDN,F/R e ATM • Partecipazione a Progetti R&D su ATM nel 4.o PQ europeo • GARR fondatore e membro dell’associazione TERENA (fusione di RARE e di EARN) e della Societa’ DANTE (1995) • rete autofinanziata da CNR, ENEA, INFN, Universita’ e Consorzi • Gestione amm.va Progetto coordinata da OTS-GARR • Gestione GARR-NOC: INFN-CNAF

  7. La Storia della Rete GARR (4/5) • 1998-2002: rete GARR-B (Broadband) • Convenzione Quadro MURST-INFN per realizzazione e gestione ‘Progetto GARR-B’ (promotori: CRUI, CNR, ENEA, INFN) • autofinanziamento per sedi in aree ‘fuori obiettivo’ • cofinanziamento MURST (ex-488) per le sedi in ‘aree di obiettivo’ • Rete Nazionale (progetto iniziale) • 16 punti di presenza (PoP) per l’accesso delle sedi degli enti • backbone su 4 nodi di trasporto, (capacita’ aggregata di ~2.5Gbps) • ATM (VC e VPN) e IPv4 • circa 200 circuiti di accesso ai PoP in F/R o CDN fino a 155Mbit/sec (per un aggregato di ~1.8Gbit/sec) (al Marzo 2002) • commodity nazionale a Roma (NAMEX) e Milano (MIX) [350Mbps] • Collegamenti con le Reti della Ricerca internazionali • TEN-34 (fino a Febbraio ‘99) a 34Mbit/sec • TEN-155 (Feb.99-Nov.2001) a 200Mbit/sec • GEANT (dal Dicembre 2001) a 2.5Gbit/sec • Global Internet (da 20Mbit/sec [Giu.’97] a 2.5Gbit/sec[Mar.’02])

  8. La Rete del Progetto GARR-B Fase2 (1999) • 4 nodi di Backbone su dorsale ridondata a 155M • 16 PoP di accesso collegati a 34M-155M con il Backbone • Capacita’ Aggregata del Backbone: circa 2.5Gbps (al Marzo 2002) • Siti GARR connessi ai PoP con velocita’ tra 2M e 155Mbps • Peering di commodity e diricerca internazionale a155 Mbps • vedi: C.Vistoli, “Progetto tecnico GARR-B”, CRCS-97/2

  9. Gestione Progetto GARR-B (1998-2002) Convenzione Quadro INFN MIUR(DURST) Nomina CRCS(MIUR) Nomina OTS-GARR (MIUR) Direzione Progetto GARR-B (INFN-GARR)

  10. Gestione Progetto GARR-B • Alla Direzione INFN-GARR sono demandate la realizzazione e la gestione del Progetto GARR-B. La Direzione INFN-GARR,secondo quanto previsto dal Progetto GARR-B e in accordo con le decisioni discusse in GARR-OTS ed approvate dalla CRCS,cura: • la pianificazione, l’evoluzione, il coordinamento tecnico e il funzionamento della rete (gruppo GARR-TEC, tec@garr.it) in accordo con gli APM (Access Port Manager) dei siti connessi alla rete • il coordinamento della sperimentazione di nuove tecnologie della rete GARR e la partecipazione nei comitati e nei progetti internazionali • la gestione amministrativa e scientifica (garr-b@garr.it) • Servizi di network del GARR sono: • GARR-NOC (call centre, noc@garr.it) • GARR-LIR (assegnazione indirizzi e reti IP, lir@garr.it) • GARR-NIC (domini di II livello SOLO per GARR, nic@garr.it) • GARR-CERT (CSIRT, security, cert@garr.it) [INFN- Firenze] • GARR-MCAST (multicast, mcast@garr.it) • Web-Cache, FTP-Mirror (cache@garr.it,mirror@garr.it) [CILEA] • Usenet News (news@garr.it) [SerRA, Universita’ di Pisa]

  11. APA, APM e AUP del GARR • Le AUP (Acceptable Use Policies) sono le norme di comportamento per gli utenti della rete GARR (http://www.garr.it/docs/garr-b-aup.shtml) • Sono armonizzate con quelle delle Reti della Ricerca dei paesi europei • Tra l’altro, vietano espressamente il transito di traffico commerciale sulla Rete. • L’APA (Access Port Administrator) di una sede GARR e’ il responsabile “amministrativo” dell’accesso alla Rete. • E’ il delegato del Rettore dell’Universita’ o del Direttore del Laboratorio di Ricerca per gli aspetti amministrativi e strategici • Fa riferimento alle AUP e le fa rispettare • Interagisce con la Direzione GARR-B per questioni amministrative • Interagisce con la sua Comunita’ di Riferimento (CRUI, CNR, etc.) • L’APM (Access Port Manager) e’ il responsabile “tecnico” dell’accesso di una sede GARR alla Rete. • E’ nominato dall’APA e le sue prerogative sono descritte in http://www.garr.it/docs/garr-apm-00.shtml • Interagisce con i gruppi di Network Services (NOC, CERT, etc. ) del GARR

  12. Lo stato dell’artedel Progetto di Rete GARR-B(Fase 4, Novembre 2002)

  13. Infrastruttura di Rete Nazionale(GARR-B Fase4, Novembre 2002) • 7 Nodi di Backbone : MI-G, BO-G, RM-G, MI, BO, RM, NA • 3 Circuiti di Backbone a 155Mbps: RM-NA, NA-MI, MI-BO • 3 Circuiti di Backbone a 2.5Gbps: triangolo MI-G,BO-G,RM-G • 5 Circuiti Inter B-B : MI-G a 2.5G, BO-G a 2*155M, RM-G a 2*155M • Capacita’ Aggregata del Backbone: circa 11Gbps • 22 PoP:2*MI, TO(155M), GE(2*34M), PD(155M), TS(2*34M), 2*BO, FI (155M), PI(155M), PD (155M) 2*RM, Frascati (155M), CA(2*34M), AQ (2*34M), PG(34M), NA, PA(34M), CT(2*34M), BA(2*34M) , CS(34M) • 30 Router e 17 Switch ATM di Backbone • Accessi Utente: circa 300 siti con circuiti tra 2Mbps e 1Gbps • Peering di Commodity: MIX@155M, NAMEX@200M

  14. GARR-B Fase 4 (Novembre 2002) • Backbone • 3*155Mbps (RM-NA-MI-BO) • 3*2.5Gbps (MI-BO-RM-MI) • 1*2.5Gbps+4*155M inter BB • 22 PoP di accesso dei siti GARR • Accessi: • ~300 siti @2M-1Gbps • Peering di Ricerca (su Milano-G)- GEANT@2.5G (produzione) - GEANT@2.5G (sperimentazione) • Peering diCommodity Nazionali: • Roma(NAMEX@200Mbps) • Milano (MIX@155Mbps) • Peering di commodity internazionali: • Milano-GX@2.5Gbps (31/03/02) • Roma-Telia@622Mbps(15/05/02) ) • [backup su GEANT]

  15. Evoluzione del Backbone di Rete Nazionale • 1990-1994: rete GARR 12Mbit/sec • 1994-1998: rete GARR-2 30-200Mbit/sec • 1998-2002: rete GARR-B 2.5-10Gbit/sec • 2003-2006: rete GARR-G ... • Fattore di crescita backbone rete GARR: >50 in 4 anni

  16. Connettivita’ Internazionale • Peering Ricerca Europea (GEANT) • [Chiusura accesso a 200Mbps a TEN155 il 30 novembre 2001] • Accesso a 2.5Gbps per produzione (IPv4, IP-Premium, IP-LBE, Multicast) • Accesso a 2.5Gbps per sperimentazione (QoS,VC,VPN,etc.) • Peering Ricerca Intercontinentale • 3*2.5Gbit/sec tra GEANT e NordAmerica (Abilene,Esnet, Canarie, …) • 155M tra GEANT e Giappone, 2Mbps con SudCorea, 155M con Russia • Transito attraverso Abilene per tutte le altre reti della Ricerca mondiali. • Peering Commodity Internazionale (Global Internet) • [Chiusura circuito diretto MI-NY a 622 Mbps il Marzo 2002]) • Circuito Global Crossing da Milano (2.5Gbps ridondati dal 14/3/02) • Circuito Telia da Roma (622Mbps dal 30/5/02). • Peering 6Net • Accesso a 2*155M (IPv6 nativo)

  17. Peering nazionali (Giugno 2002) • NAP Milano (MIX) • 155Mbps ATM • attraverso MIX: • Infostrada, Inet, etc. • 94 peering con ISP privati • NAP Roma (NAMEX) • 200Mbps • attraverso NAMEX: • Interbusiness, Wind, etc. • 89 peering con ISP privati

  18. Evoluzione dei Peering di Commodity internazionale • Accesso al Global Internet da GARR-B • Giugno 1997: 20Mbps Milano (TEN-34) • Agosto 1999:45Mbps Napoli - NY • Giugno 2000:155Mbps Napoli - NY • Settembre 2000:622Mbps Milano - NY • Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) • Fattore di crescita peering GARR: >100 in 5 anni

  19. Accessi a GARR-B Fase 4(Novembre 2002) Circa 300 siti di istituzioni accademiche e di ricerca - 75 Universita’ (statali e non statali) - 56 siti CNR - 9 siti ENEA - 37 siti INFN - 7 siti ASI - 12 siti INAF (Osservatori Astronomici) - 2 siti INFM - 8 siti INGV - 12 Biblioteche (Centrali e Nazionali) e ICCU - 41 siti di altre istituzioni di ricerca - 3 Consorzi di Supercomputing (CILEA,CINECA,CASPUR) - sede MIUR di P.le Kennedy (a 34Mbit/sec)- sede MIUR di V.le Trastevere (a 8Mbit/sec)

  20. Capacita’ aggregata di Accesso [BGA] di tutti i siti GARR(Giugno 2002) Total access capacity Highly developed areas Less developed areas

  21. Capacita’ aggregata di accesso (BGA)delle sedi INFN

  22. SEDEAree in obiettivo Circuito Attuale BGAAttuale Data Attivazione Circuito Previsto BGA Prevista Data AttivazionePrevista Note INFN - Bari U-BA 34M 12288 01/09/2000 34M-ATM 16384 17/12/2001 LS1010 INFN - Cagliari 2*2M 4096 26/10/1999 34M-ATM 8192 30/01/2002 - INFN - Catania 2*2M 4096 14/10/1999 34M-ATM 8192 17/12/2001 Cavi persi?? INFN - Cosenza 2M-F/R 1024 26/11/1999 - - - Trasloco a PoP-CS INFN - L'Aquila 2*2M 4096 07/06/2001 - - - - INFN - Lecce 2M-F/R 1024 11/10/1999 U-LE 34M 8192 21/12/2001 - INFN - LNGS 34M-ATM 16384 12/03/2001 - - - - INFN - LNS 2*2M 4096 08/11/1999 34M-ATM 8192 17/12/2001 router INFN INFN - GC-Messina 2M-F/R 1024 02/12/1999 - - - CAR con U-ME? INFN - Napoli U-NA 34M 8192 14/12/1999 U-NA 155M 32768 30/11/2001 Problema Uni-NA? INFN - Pisa - S.Piero 34M-ATM 30720 30/11/2001 - - - Trasloco? INFN - Pisa - Virgo 3*2M 6124 28/11/2001 6*2M 12288 17/12/2001 34M-ATM giu. 2002 INFN - GC-Salerno 2M-F/R 1024 03/11/1999 - - - CAR con U-SA? INFN - Trieste 34M-ATM 8192 11/09/2000 34M-ATM 16384 19/12/2001 CAR? Accessi Sedi INFN alla rete GARR (1/3)

  23. SEDEAree in obiettivo Circuito Attuale BGAAttuale Data Attivazione Circuito Previsto BGA Prevista Data AttivazionePrevista Note INFN - AC Frascati LNF 155M via LNF 27/01/2000 - - - - INFN - Bologna CNAF 34M 12288 01/09/2000 34M-ATM 30720 12/12/2001 17/12? INFN - CNAF Bologna I-BO 34M 12288 23/11/2000 155M-ATM 98304 11/12/2001 14/12? INFN - Ferrara 2*2M 4096 01/10/2001 - - - - INFN - Firenze-Arcetri 2M 2048 28/08/2000 - - - - INFN - Firenze-Sesto 2M 2048 28/08/2000 34M-ATM 8192 31/01/2002 - INFN - Genova 2*2M 4096 07/10/1999 34M-ATM 8192 11/12/2001 Cavi persi? INFN - LNF 155M-ATM 16384 27/01/2000 - - - Fibra locale INFN - LNL 34M-ATM 30720 10/12/2001 - - - - INFN - Milano U-MI 155M 28672 10/07/2001 - - - - INFN - Milano - Bicocca 34M-ATM 16384 11/09/2000 - - - - INFN - Padova 34M-ATM 28672 12/03/2001 34M-ATM 30720 19/12/2001 - INFN - GC-Parma 2M-F/R 1024 24/11/1999 - - - - INFN - Pavia 2*2M 4096 05/04/2001 34M-ATM 8192 11/12/2001 Trasloco switch Accessi Sedi INFN alla rete GARR (2/3)

  24. SEDEAree in obiettivo Circuito Attuale BGAAttuale Data Attivazione Circuito Previsto BGA Prevista Data AttivazionePrevista Note INFN - Perugia 2M-F/R 1024 15/11/1999 155M-ATM 12288 10/12/2001 Guasto sw. RM INFN - Presidenza I-RM1 155M via Roma1 03/11/1999 - - - - INFN - Roma1 2*155M-ATM 32768 14/09/2001 - - - - INFN - Roma2 2*2M 4096 03/12/2001 - - - - INFN - Roma3 2M 2048 06/10/1999 - - - - INFN - GC-Sanita' I-RM1 155M via Roma1 03/11/1999 - - - - INFN - Torino 34M-ATM 12288 31/08/2000 34M-ATM 30720 17/12/2001 - INFN - GC-Trento 2M-F/R 1024 11/11/1999 - - - CAR con U-TN? INFN - GC-Udine 2M-F/R 1024 11/11/1999 - - - CAR con U-UD? Accessi Sedi INFN alla rete GARR (3/3)

  25. Weathermap di GARR-B

  26. Andamento delle Tariffe(ascissa in Mbit/sec, ordinata in MLit/anno)

  27. La partecipazione del GARR ai Progetti di Ricerca e Sviluppo Internazionali

  28. Partecipazioni Internazionali • TERENA (TF-NGN, Serenate, CSIRT, …) • IETF (Messaging, IPv6, Optical,…) • RIPE (Registry, Routing, IPv6, DNS,…) • INTERNET2 (Multicast, videoconferenza, …) • Collaborazioni trasversali con altri Progetti Europei

  29. Partecipazione GARR ai Programmi(in corso) della Commissione Europea

  30. Progetto Europeo GEANT • GEANT e’ un Progetto approvato nell’ambito del 5.PQ della Unione Europea per l’interconnessione delle Reti della Ricerca Europee e tra queste e le reti della ricerca:-del Nordamerica-del Sudamerica-del bacino del Mediterraneo-dei Paesi Asiatici sul Pacifico-in futuro, forse, dei Paesi sull’Oceano Indiano e dell’Africa • Questo Progetto, successore di TEN-34 e TEN-155 (Trans European Network) del 4.o PQ e di EuropaNet del 3.o PQ, ha una durata di 48 mesi (2000-2004), un costo stimato di circa 170Meuro e un cofinanziamento europeo di 80Meuro. • Al Progetto GEANT partecipano 32 reti della ricerca europee, tra cui il GARR per l’Italia • Lo sviluppo del Progetto e’ regolato dal Consorzio (virtuale) delle Reti della Ricerca Europee

  31. EUMEDIS-EUMedConnect • EUMEDIS e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di 12 paesi del Mediterraneo. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del mediterraneo su diversi temi. Esso e’ suddiviso in:-Strand 1: 35 Meuro per applicazioni (16 Progetti approvati)-Strand 2: 10 Meuro per infrastruttura di rete (fino a Giugno 2006) • Per lo Strand 2 e’ stato accettato e approvato un solo progetto,cioe’ EUMEDCONNECT, per la Interconnessione tra GEANT e le Reti della Ricerca di:-Marocco, Algeria, Tunisia, Egitto, Palestina, Giordania, Siria, Libano, Turchia (cofinanziati da EUMEDIS)-Malta, Cipro, Israele (cofinanziati dal 5.o e 6.o PQ-IST) • Al Progetto EUMEDCONNECT partecipano anche le reti della ricerca di Spagna, Francia, Italia (GARR) e Grecia (coordinatore DANTE)

  32. ALIS-CAESAR • ALIS (o @LIS) e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di tutti i paesi dell’America Latina. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del Centro e Sudamerica su diversi temi. • L’Unione Europea ha affidato al Consorzio delle Reti della Ricerca Europee il progetto, denominato CAESAR, per la Interconnessione tra la Rete della Ricerca Europea GEANT e le Reti della Ricerca ditutti i paesi dell’America Latina • Al Progetto CAESAR partecipano, in rappresentanza delle Reti della Ricerca Europee, le organizzazioni per le reti della ricerca di Spagna, Francia, Italia (GARR) e Portogallo (coordinatore DANTE)

  33. Progetto Europeo 6NET • 6NET e’ un Progetto approvato nell’ambito del 5.PQ-IST della Commissione Europea (durata 24 mesi da Gen.2002 a Dic.2003) • Ha per scopo il test a livello internazionale di un’infrastruttura nativa di rete basata su protocollo IPv6 e di applicazioni native IPv6. • Il Progetto 6NET, cui partecipano reti della ricerca europee, tra cui il GARR, e’ in stretta collaborazione con il Progetto analogo EURO6IX, cui partecipano principalmente operatori di tlc. • Partecipanti italiani (GARR): CNR, INFN, 10 Universita’ e CASPUR • Contatto per il GARR: Gabriella.Paolini@garr.it

  34. Provided by 6NET partners Circuit dedicated – initially 155Mbit/s Dedicated circuit added for redundancy (optional) Asia-Pacific Tunneled solution for cost reasons SE UK NL North America DE FR CH AT IT GR Network The

  35. Network in Italy The POLITECNICO DI MILANO (s.j.) POLITECNICO DI TORINO 6NET BACKBONE PoP TORINO UNIVERSITA’ DI MILANO MILANO GARR 6NET-GW CNR / IAT UNIVERSITA’ DI FERRARA PoP PISA PoP BOLOGNA UNIVERSITA’ DI PISA PoP ROMA INFN/CNAF UNIVERSITA’ DI FIRENZE GARR UNIVERSITA’ DI ROMA3 UNIVERSITA’ DI BOLOGNA CASPUR UNIVERSITA’ DI NAPOLI UNIVERSITA’ DI BARI

  36. eCSIRT:Sicurezza della Rete • Sistemi di calcolo sicuri e protetti (esigenza primaria per le griglie computazionali) • CERT e CSIRT nelle reti della Ricerca per la gestione di interventi immediati legati alla sicurezza della rete • Protezione proattiva da violazione dei sistemi, in coordinamento con gli APM nazionali e internazionali delle Reti • Certification Authority: • coordinamento internazionale certificati X.509 • Autenticazione, Autorizzazione, Accounting • Partecipanti: DE, IT, FR, UK, DK, NO, CH, PL, SI, ES, NL • Progetto Europeo, 24 mesi (Aprile 2002 - Marzo 2004) • Contatto per il GARR: Roberto.Cecchini@firenze.infn.it

  37. SErvice QUality over Interconnected Domains (SEQUIN) • Studio, Progettazione e Realizzazione di QoS a livello IP in GEANT e nelle Reti della Ricerca Europee • Coordinamento con Task Force TF-TANT e TF-NGN • Tra l’altro: definizione Servizio Premium IPend to end su scala europea [gia’ reso operativo su GEANT] • Progetto Europeo, 18 mesi (Nov. 2000 - Apr. 2002) [concluso] • Partecipanti: Switch, DFN, Renater, GARR, UKERNA, Pol34, Grnet • Contatto per il GARR: Mauro.Campanella@garr.it

  38. Il GARR e le Reti della Ricerca internazionali

  39. La rete della ricerca Europea TEN-155(1998-2001) • Progetto e Rete TEN-155 (evoluzione della rete TEN-34) • Cofinanziamento CE (4th FP) per 80M€ su un costo di ~170M€ • Durata 36 mesi (1/12/98 – 30/11/01) • Partecipanti: 20 NREN europee • Rete operativa dall’1 Dic. 1998 • Peculiarita’ di TEN-155: • Backbone a 155-622Mbit/sec • Accesso iniziale fino a 155M Gbit/sec • Peering con tutte le reti della ricerca • Supporto VC, VPN • Accesso GARR-B • 200Mbit/sec su 2x155Mbps ATM: • 155Mbit/sec produzione • 45Mbit/sec sperimentazione

  40. La Rete della Ricerca Europea GÉANT(2001-2004) • Progetto e Rete GÉANT (evoluzione della rete TEN-155) • Cofinanziamento CE (5th FP-IST-RN1) per 80M€ su un costo di ~170M€ • Durata 48 mesi (1/12/00 – 30/11/04) • Partecipanti: 32 NREN europee • Rete operativa dall’1 Dic. 2001 • Peculiarita’ di GÉANT: • Backbone a 10Gbit/sec • Accesso iniziale fino a 2.5 Gbit/sec • Uso di circuiti su lambda • Peering con tutte le reti della ricerca • Supporto per QoS, VPN, MCAST 2001 2001 • Accesso GARR a 2.5Gbit/sec per produzionee 2.5Gbit/sec per sperimentazione

  41. L’evoluzione delle Reti della Ricerca Europee • Pan-European Research Networks: • Caratteristiche Accesso GARR • GÉANT 2001-2004 32 countries 2.5-10 Gbps Backbone IPv4 [v6] 2.5[+2.5]Gbps • TEN-155 1998-2001 19 countries 155-622 Mbps Backbone IP, ATM 200Mbps • TEN-34 1997-1998 18 countries 34 Mbps Backbone IP, ATM 34Mbps • EuropaNET 1993-1997 18 countries 2 Mbps Backbone IP, CDN 2Mbps • COSINE 1986-1993 15 countries 64 Kbps Backbone IP, X25 64Kbps • TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). • The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). • In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. • Fattore di crescita peering GARR: >100 in 5 anni

  42. Grid La rete a supporto delle Computing Grid • Problemi particolarmente complessi oggi richiedono sofisticate infrastrutture di calcolo (software e hardware) • Ad esempio: per i futuri esperimenti di Fisica delle Alte Energie la potenza di calcolo necessaria non sara’ piu’ “confinabile” in un singolo sito • potenza di calcolo (K-SI95 7.500  200.000 PIII 800MHz !!! ) • PetaByte di dati • I modelli di calcolo distribuito oggi esistenti non sono sufficenti a risolvere il problema: • clusters  fabrics • produzioni/analisi locali  produzioni/analisi distribuite • collaborazioni internazionali sempre piu’ grandi

  43. Che cos’e’ la“Grid Technology”? • L’obiettivo principale dei progetti di Grid e’ lo sviluppo di un insieme coerente di risorse di calcolo (“Grid”), distribuite su scala geografica. • La Grid dovra’ garantire la gestione di data-sets di differenti “Virtual Organizations” (fino alla scala del “Peta-Byte”) utilizzando computing power e storage distribuiti. • Una GrigliaComputazionale dovra’ fornire unainterfaccia uniforme ai suoiutilizzatori (ed alle sue risorse), distribuendo un servizio affidabilee accessibile da “qualsiasi luogo” • Paradigma delle Grid: • analogia con le griglie-elettriche (si inserisce un “dispositivo” nella presa nel muro e si opera senza preoccuparsi delle centrali elettriche di produzione, della rete di distribuzione, del trasporto su cavi ad alta tensione, etc.); • si usa qualsiasi risorsa di calcolo e di storage disponibile sulla rete, similmente a quanto si fa col WWW.

  44. Tier2 Center Tier2 Center Tier2 Center Tier2 Center Tier2 Center HPSS HPSS HPSS HPSS LHC Data Grid Hierarchy(by H.Newman at HEP-CCC 18-nov-2002) CERN/Outside Resource Ratio ~1:2Tier0/( Tier1)/( Tier2) ~1:1:1 ~PByte/sec ~100-400 MBytes/sec Online System Experiment CERN 700k SI95 ~1 PB Disk; Tape Robot Tier 0 +1 HPSS Tier1 ~2.5 Gbits/sec FNAL: 200k SI95; 600 TB IN2P3 Center INFN Center RAL Center 2.5 Gbps Tier2 ~2.5 Gbps Tier3 Institute ~0.25TIPS Institute Institute Institute Tens of Petabytes by 2007-8.An Exabyte within ~5 Years later. 100 - 1000 Mbits/sec Physics data cache Tier 4 Workstations

  45. GÉANT

  46. ICFA SCIC: R&E Backbone and International Link Progress (by H.Newman, 18-nov-2002) [1/2] • GEANT Pan-European Backbone (http://www.dante.net/geant) • Now interconnects >31 countries; many trunks 2.5 and 10 Gbps OK • UK: SuperJANET Core at 10 Gbps • 2.5 Gbps NY-London, with 622 Mbps to ESnet and Abilene (???) • France (IN2P3): 2.5 Gbps RENATER backbone by mid-October • Lyon-CERN Link being Upgraded to 1 Gbps Ethernet OK • Proposal for dark fiber to CERN by end 2003 ! • SuperSINET (Japan):10 Gbps IP and 10 Gbps Wavelength Core • Tokyo to NY Links: Now 2 X 2.5 Gbps; Need to get to Starlight • CA*net4 (Canada): Interconnect customer-owned dark fiber nets across Canada at 10 Gbps, started July 2002 • “Lambda-Grids” by ~2004-5 • GWIN (Germany):2.5 Gbps Core; Connect to US at 2 X 2.5 Gbps; (???) Support for SILK Project: Satellite links to FSU Republics • Russia: Now 155 Mbps links to Moscow • Moscow-Starlight Link to 155 Mbps (US NSF + Russia Support) • Moscow-Stockholm Link; connect to GEANT at 155 Mbps

More Related