Difference between revisions of "Tier 2:Subatech"

Un article de lcgwiki.
Jump to: navigation, search
(Ressources dédiées à LCG)
 
(12 intermediate revisions by the same user not shown)
Ligne 6: Ligne 6:
  
 
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
 
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
 +
 +
<span style="color:#FF0000;">Note: Le Tier-2 Subatech va être progressivement arrêté courant 2023</span>
 +
 
===== Ressources dédiées à LCG =====
 
===== Ressources dédiées à LCG =====
 
{| class="wikitable" style="text-align:center"  border="1" cellpadding="5" cellspacing="0"
 
{| class="wikitable" style="text-align:center"  border="1" cellpadding="5" cellspacing="0"
 
|+
 
|+
 
|-
 
|-
! style="background:#efefef;" |  Année !! 2005 [1]!! 2006 [1]!! 2007 [1]!! 2008 [2] !! 2009 [2] !! 2010 [3] !! 2011 [3] !! 2012 [3] !! 2013 [3] !! 2014 [3] !! au-delà
+
! style="background:#efefef;" |  Année !! 2005 [1]!! 2006 [1]!! 2007 [1]!! 2008 [2] !! 2009 [2] !! 2010 [3] !! 2011 !! 2012 !! 2013 !! 2014 !! 2015 !! 2016 !! 2017 !! 2018 !! 2019 [4] !! 2020 !! 2021 !! 2022 !! 2023 [6]
 
|-
 
|-
 
!  CPU (KSI2K)
 
!  CPU (KSI2K)
|  14 || 56  ||112  || 312 || 373 || - || - || - || - || - || à définir
+
|  14 || 56  ||112  || 312 || 373 || - || - || - || - || - || - || - || - || - || - || - || -  || -  || -
 
|-
 
|-
 
!  CPU (SPEC-HEP06)
 
!  CPU (SPEC-HEP06)
|  - || -  || -  || - || - || 2400 || 3000 || 3000 || 3000 || 3000 || à définir
+
|  - || -  || -  || - || - || 2400 || 3000 || 3000 || 3000 || 3000 || 3000 || 4500 || 4500 || 4500 || 8500 [4] || 13500 [5] || 13500 || 13500 || 0
 
|-
 
|-
 
! Stockage (To)  
 
! Stockage (To)  
|  4,25 || 15,3  || 16  ||  43 || 97 || 200 || 270 || 310 || 310 || 310 || à définir
+
|  4,25 || 15,3  || 16  ||  43 || 97 || 200 || 270 || 310 || 310 || 310 || 310 || 800 ||  1619 ||  1619 ||  1500 ||  1500 ||  2500||  2500 || 0
 
|-
 
|-
 
|}
 
|}
Ligne 27: Ligne 30:
  
 
[3] : SPEC-HEP06 : Nouvelle métrique  
 
[3] : SPEC-HEP06 : Nouvelle métrique  
 +
 +
[4] : Ajout de 400 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes
 +
 +
[5] : Ajout de 640 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes
 +
 +
[6] : arrêt progressif di site à partir de mai 2023
  
 
Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/
 
Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/
Ligne 35: Ligne 44:
 
Responsable Technique : Jean-Michel Barbet
 
Responsable Technique : Jean-Michel Barbet
  
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Jean Andrianavaly et Jérome Pinot.
+
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot.
Les moyens humains dédiés à LCG représentent actuellement 1,3 ETP.
+
Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.
  
 
===== Financement et partenaires =====
 
===== Financement et partenaires =====
Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire.
+
Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la majorité des ressources CPU sont mutualisées dans un mésocentre HPC de l'Université de Nantes : le CCIPL.
  
 
===== Technologies et savoir-faire =====
 
===== Technologies et savoir-faire =====
Cluster local Scientific-Linux 5, OpenPBS. Quattor (worker nodes, disk servers), YAIM (service nodes)
+
Cluster local CentOS7, HT-Condor, Puppet/Foreman (worker nodes, disk servers)
  
Stockage : SAN, RAID5/6, xrootd
+
Stockage : RAID5/6, EOS
  
Divers : Surveillance Nagios, Support: Request-Tracker (RT), Virtualisation: VMware, Elogger.
+
Divers : Surveillance Nagios, Virtualisation: VMware, Elogger.
  
 
===== Liens =====
 
===== Liens =====

Latest revision as of 11:15, 2 février 2023

Laboratoire SUBATECH - UMR CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes http://www-subatech.in2p3.fr/
Version Française | English Version

Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.

Note: Le Tier-2 Subatech va être progressivement arrêté courant 2023

Ressources dédiées à LCG
Année 2005 [1] 2006 [1] 2007 [1] 2008 [2] 2009 [2] 2010 [3] 2011 2012 2013 2014 2015 2016 2017 2018 2019 [4] 2020 2021 2022 2023 [6]
CPU (KSI2K) 14 56 112 312 373 - - - - - - - - - - - - - -
CPU (SPEC-HEP06) - - - - - 2400 3000 3000 3000 3000 3000 4500 4500 4500 8500 [4] 13500 [5] 13500 13500 0
Stockage (To) 4,25 15,3 16 43 97 200 270 310 310 310 310 800 1619 1619 1500 1500 2500 2500 0

[1] : sur la base de 1CPU = 1,644 KSI2K

[2] : en KSI2K CERN conformément à [CPU Capacity Metrics for WLCG]

[3] : SPEC-HEP06 : Nouvelle métrique

[4] : Ajout de 400 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes

[5] : Ajout de 640 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes

[6] : arrêt progressif di site à partir de mai 2023

Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/

Personnes et moyens humains

Responsable Scientifique : Laurent Aphecetche

Responsable Technique : Jean-Michel Barbet

Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot. Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.

Financement et partenaires

Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la majorité des ressources CPU sont mutualisées dans un mésocentre HPC de l'Université de Nantes : le CCIPL.

Technologies et savoir-faire

Cluster local CentOS7, HT-Condor, Puppet/Foreman (worker nodes, disk servers)

Stockage : RAID5/6, EOS

Divers : Surveillance Nagios, Virtualisation: VMware, Elogger.

Liens

Site IN2P3-SUBATECH dans la GOCDB [1]

Expérience ALICE au LHC [2]

Carte AliEn [3]

Groupe Plasma à SUBATECH [4]