Difference between revisions of "Tier 2:Subatech"
(18 intermediate revisions by 2 users not shown) | |||
Ligne 6: | Ligne 6: | ||
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC. | Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC. | ||
+ | |||
+ | <span style="color:#FF0000;">Note: Le Tier-2 Subatech va être progressivement arrêté courant 2023</span> | ||
+ | |||
===== Ressources dédiées à LCG ===== | ===== Ressources dédiées à LCG ===== | ||
{| class="wikitable" style="text-align:center" border="1" cellpadding="5" cellspacing="0" | {| class="wikitable" style="text-align:center" border="1" cellpadding="5" cellspacing="0" | ||
|+ | |+ | ||
|- | |- | ||
− | ! style="background:#efefef;" | Année !! 2005 [1]!! 2006 [1]!! 2007 [1]!! 2008 [2] !! 2009 [2] !! | + | ! style="background:#efefef;" | Année !! 2005 [1]!! 2006 [1]!! 2007 [1]!! 2008 [2] !! 2009 [2] !! 2010 [3] !! 2011 !! 2012 !! 2013 !! 2014 !! 2015 !! 2016 !! 2017 !! 2018 !! 2019 [4] !! 2020 !! 2021 !! 2022 !! 2023 [6] |
+ | |- | ||
+ | ! CPU (KSI2K) | ||
+ | | 14 || 56 ||112 || 312 || 373 || - || - || - || - || - || - || - || - || - || - || - || - || - || - | ||
|- | |- | ||
− | ! CPU ( | + | ! CPU (SPEC-HEP06) |
− | | | + | | - || - || - || - || - || 2400 || 3000 || 3000 || 3000 || 3000 || 3000 || 4500 || 4500 || 4500 || 8500 [4] || 13500 [5] || 13500 || 13500 || 0 |
|- | |- | ||
! Stockage (To) | ! Stockage (To) | ||
− | | 4,25 || 15,3 || 16 || 43 || 97 || | + | | 4,25 || 15,3 || 16 || 43 || 97 || 200 || 270 || 310 || 310 || 310 || 310 || 800 || 1619 || 1619 || 1500 || 1500 || 2500|| 2500 || 0 |
|- | |- | ||
|} | |} | ||
Ligne 23: | Ligne 29: | ||
[2] : en KSI2K CERN conformément à [[http://www.cern.ch/LCG/documents/Processor%20performance%20metrics_26may07.pdf CPU Capacity Metrics for WLCG]] | [2] : en KSI2K CERN conformément à [[http://www.cern.ch/LCG/documents/Processor%20performance%20metrics_26may07.pdf CPU Capacity Metrics for WLCG]] | ||
− | + | [3] : SPEC-HEP06 : Nouvelle métrique | |
+ | |||
+ | [4] : Ajout de 400 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes | ||
+ | |||
+ | [5] : Ajout de 640 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes | ||
+ | |||
+ | [6] : arrêt progressif di site à partir de mai 2023 | ||
+ | |||
+ | Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/ | ||
===== Personnes et moyens humains ===== | ===== Personnes et moyens humains ===== | ||
Ligne 30: | Ligne 44: | ||
Responsable Technique : Jean-Michel Barbet | Responsable Technique : Jean-Michel Barbet | ||
− | Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, | + | Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot. |
− | Les moyens humains dédiés à LCG représentent actuellement 1, | + | Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP. |
===== Financement et partenaires ===== | ===== Financement et partenaires ===== | ||
− | Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. | + | Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la majorité des ressources CPU sont mutualisées dans un mésocentre HPC de l'Université de Nantes : le CCIPL. |
===== Technologies et savoir-faire ===== | ===== Technologies et savoir-faire ===== | ||
− | Cluster local | + | Cluster local CentOS7, HT-Condor, Puppet/Foreman (worker nodes, disk servers) |
+ | |||
+ | Stockage : RAID5/6, EOS | ||
− | + | Divers : Surveillance Nagios, Virtualisation: VMware, Elogger. | |
− | |||
===== Liens ===== | ===== Liens ===== | ||
− | Site IN2P3-SUBATECH dans la GOCDB [https://goc. | + | Site IN2P3-SUBATECH dans la GOCDB [https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=151&grid_id=0] |
Expérience ALICE au LHC [http://aliceinfo.cern.ch/Public] | Expérience ALICE au LHC [http://aliceinfo.cern.ch/Public] |
Latest revision as of 11:15, 2 février 2023
Laboratoire SUBATECH - UMR
CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes
http://www-subatech.in2p3.fr/
Version Française | English Version
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
Note: Le Tier-2 Subatech va être progressivement arrêté courant 2023
Sommaire
Ressources dédiées à LCG
Année | 2005 [1] | 2006 [1] | 2007 [1] | 2008 [2] | 2009 [2] | 2010 [3] | 2011 | 2012 | 2013 | 2014 | 2015 | 2016 | 2017 | 2018 | 2019 [4] | 2020 | 2021 | 2022 | 2023 [6] |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
CPU (KSI2K) | 14 | 56 | 112 | 312 | 373 | - | - | - | - | - | - | - | - | - | - | - | - | - | - |
CPU (SPEC-HEP06) | - | - | - | - | - | 2400 | 3000 | 3000 | 3000 | 3000 | 3000 | 4500 | 4500 | 4500 | 8500 [4] | 13500 [5] | 13500 | 13500 | 0 |
Stockage (To) | 4,25 | 15,3 | 16 | 43 | 97 | 200 | 270 | 310 | 310 | 310 | 310 | 800 | 1619 | 1619 | 1500 | 1500 | 2500 | 2500 | 0 |
[1] : sur la base de 1CPU = 1,644 KSI2K
[2] : en KSI2K CERN conformément à [CPU Capacity Metrics for WLCG]
[3] : SPEC-HEP06 : Nouvelle métrique
[4] : Ajout de 400 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes
[5] : Ajout de 640 Coeurs CPU mutualisés dans le centre HPC CCIPL Université de Nantes
[6] : arrêt progressif di site à partir de mai 2023
Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/
Personnes et moyens humains
Responsable Scientifique : Laurent Aphecetche
Responsable Technique : Jean-Michel Barbet
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot. Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.
Financement et partenaires
Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la majorité des ressources CPU sont mutualisées dans un mésocentre HPC de l'Université de Nantes : le CCIPL.
Technologies et savoir-faire
Cluster local CentOS7, HT-Condor, Puppet/Foreman (worker nodes, disk servers)
Stockage : RAID5/6, EOS
Divers : Surveillance Nagios, Virtualisation: VMware, Elogger.
Liens
Site IN2P3-SUBATECH dans la GOCDB [1]
Expérience ALICE au LHC [2]
Carte AliEn [3]
Groupe Plasma à SUBATECH [4]