1 / 12

Le noeud de grille Tier 3 LAPP

Le noeud de grille Tier 3 LAPP. Objectifs du projet LAPP. Garantir des ressources informatiques pour l’analyse des données aux physiciens du LAPP et aux physiciens étrangers qui viendront dans le cadre du centre international de rencontre LAPP-LAPTH (projet CREDO)

hyatt-rice
Download Presentation

Le noeud de grille Tier 3 LAPP

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Le noeud de grille Tier 3 LAPP

  2. Objectifs du projet LAPP • Garantir des ressources informatiques pour l’analyse des données aux physiciens du LAPP et aux physiciens étrangers qui viendront dans le cadre du centre international de rencontre LAPP-LAPTH (projet CREDO) • Construire un nœud s’intégrant dans la grille de européenne EGEE (Enabling Grid for E-Science) qui englobe la grille du projet LHC: LCG (LHC Computing Grid)

  3. L‘Architecture envisagée à l’horizon fin 2007

  4. Les premiers choix technologiques (Matériel IBM/ Serviware)

  5. Les avantages de l’Architecture Ouverture par rapport au middleware LCG • Serveurs de fichiers RHEL3 capables de supporter si nécessaire DPM, etc… Sécurité des données • Fiabilité des composants donc pérennité de la solution • Protection des données par mécanisme avancé (parité) • Redondance des composants (alimentations, ventilation, commutateurs réseaux et SAN, contrôleurs, etc…) • Sauvegarde du tiers du volume Evolutivité de la solution • Jusqu’à 40 To dans la même baie de stockage • Evolutivité en performance si nécessaire (commutateurs SAN pour rajouter des serveurs, des lecteurs de sauvegarde, disques FibreChannel possibles, etc…) Facilité d’administration • Outils centralisés d’administration • Evolution des volumes pour chaque groupe de manière souple

  6. Surveillance depuis le web • Tests journaliers • Monitoring RB JRA2 – 200 jobs/ jour en 2005 • Etat des jobs (PHPMyAdmin, et scripts PHP pour interrogation base Mysql LB) • Visualisation des logs Les services Grille Site IN2P3-LAPP Contact : support-grid@lapp.in2p3.fr Site GIIS : lappgrid05.in2p3.fr:2170 LCG-2.6.0 Contribution EGEE SA1-fr : ½ FTE IR 2006 Renouvellement des serveurs • Virtualisation des nœuds de grille • VMware GSX (pas de support SMP) • Evaluation nouveaux composants, nouvelles • releases • Bancs de test • Partitionnement des serveurs • Evolution vers Xen ?

  7. L‘utilisation par les expériences LAPP • Expériences demandeuses: • LHC : Ferme d’analyse complémentaire des grands centres de calcul • ATLAS 2008 : 50 CPU, qq To • LHCb 2008: 50 CPU, qq To • Besoins: Ferme de stockage/calcul orientée analyse • Rapatriement standardisé de données réduites des expériences • Traitement local de ces données avec/sans soft expérience • Stockage et partage des fichiers résultants avec d’autres collaborateurs • Montée en puissance avec l’accumulation des données • Participation aux calculs d’intérêt général si disponibilités • Autres expériences LAPP hors LHC interessées

  8. Le financement Plusieurs pistes explorées: • Partenariat industriel • Demandes ANR • Université de Savoie (UdS) • Partage d’expertise et mutualisation des coûts d’infrastructure et d’administration • Projet MUST • 75% utilisation LAPP • 25% autres laboratoires de recherche

  9. Le projet MUST • Trois besoins ont été identifiés: • Stockage sécurisé • Calcul • Accès à la grille EGEE • Les financements acquis (TTC): • 100 k€ LAPP + 8 k€ LAPTH • 68 k€ pour la partie stockage (05) • 12 k€ pour le calcul (06) • 200 k€ pour le projet global (06) UdS

  10. Le planning • Etudes techniques et financières depuis mars • Recherche de financement depuis le printemps 2005 • Déploiement des ressources grilles • Evolution de l’infrastructure salle calcul (climatisation 05 – onduleur 06) • Livraison de la partie stockage (5 To) janvier 2006 • Une évolution conséquente en 2006 (de 100 à 200 CPUs, de 10 à 20 To) • Une configuration cible pour 2007

  11. L’équipe Stéphane Jézéquel: responsable scientifique Quatre personnes équivalent temps plein sont prévues pour le nœud de grille: • Nadine Neyroud Responsable technique • Frédérique Chollet Support middleware LCG/EGEE • Sabine Elles/F.C. Support aux expériences • Muriel Gougerot Exploitation • M. Ahbar, S. Garrigues, F. Girault, N. Iribarnes, 1 poste IR (NOEMI) et contribution de tout le service général

  12. Questions?

More Related