Difference between revisions of "Tier 2:Subatech"

Un article de lcgwiki.
Jump to: navigation, search
 
(23 intermediate revisions by 3 users not shown)
Ligne 1: Ligne 1:
=== Tier2 : Subatech Nantes ===
 
 
Laboratoire SUBATECH - UMR
 
Laboratoire SUBATECH - UMR
 
CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes
 
CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes
 
http://www-subatech.in2p3.fr/
 
http://www-subatech.in2p3.fr/
==== Version Française | English Version ====
+
<br>
 +
[[Tier_2:Subatech |Version Française ]] | [[Tier_2:Subatech_en|English Version ]]
 +
 
 
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
 
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
 
===== Ressources dédiées à LCG =====
 
===== Ressources dédiées à LCG =====
Ligne 9: Ligne 10:
 
|+
 
|+
 
|-
 
|-
! style="background:#efefef;" |  Année !! 2005 !! 2006 !! 2007 !! 2008 et au-delà
+
! style="background:#efefef;" |  Année !! 2005 [1]!! 2006 [1]!! 2007 [1]!! 2008 [2] !! 2009 [2] !! 2010 [3] !! 2011 [3] !! 2012 [3] !! 2013 [3] !! 2014 [3] !! 2015 [3] !! 2016 [3] !! 2017 [3] !! au-delà
 +
|-
 +
!  CPU (KSI2K)
 +
|  14 || 56  ||112  || 312 || 373 || - || - || - || - || - || - || - || - || à définir
 
|-
 
|-
!  CPU (KSI2K) [1]
+
!  CPU (SPEC-HEP06)
14 || 56 ||112 || 280
+
- || - || - || - || - || 2400 || 3000 || 3000 || 3000 || 3000 || 3000 || 4500 || 4500 || à définir
 
|-
 
|-
! Stockage (To) [2]
+
! Stockage (To)  
|  4,25 || 15,3  || 31,62 ||  77,52
+
|  4,25 || 15,3  || 16 ||  43 || 97 || 200 || 270 || 310 || 310 || 310 || 310 || 800 ||  1619 ||à définir
 
|-
 
|-
 
|}
 
|}
 
[1] : sur la base de 1CPU = 1,644 KSI2K  
 
[1] : sur la base de 1CPU = 1,644 KSI2K  
  
[2] : les ressources dédiées à LCG représentent 70% des ressources locales pour le CPU, 85% pour le stockage.
+
[2] : en KSI2K CERN conformément à [[http://www.cern.ch/LCG/documents/Processor%20performance%20metrics_26may07.pdf CPU Capacity Metrics for WLCG]]
 +
 
 +
[3] : SPEC-HEP06 : Nouvelle métrique
 +
 
 +
Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/
 +
 
 
===== Personnes et moyens humains =====
 
===== Personnes et moyens humains =====
 
Responsable Scientifique : Laurent Aphecetche
 
Responsable Scientifique : Laurent Aphecetche
Ligne 26: Ligne 35:
 
Responsable Technique : Jean-Michel Barbet
 
Responsable Technique : Jean-Michel Barbet
  
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Jean Andrianavaly.
+
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot.
 +
Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.
  
Les moyens humains dédiés à LCG représentent actuellement 0,8 ETP. Un poste d'IE est actuellement affiché en NOEMI pour atteindre environ 1,3 ETP.
 
 
===== Financement et partenaires =====
 
===== Financement et partenaires =====
Les achats ont étés réalisés avec des crédits provenant de l'Ecole des Mines de Nantes et avec l'aide de la Région des Pays-de-Loire.
+
Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la moitié des ressources CPU proviennent d'un mésocentre HPC de l'Université de Nantes : le CCIPL.
 +
 
 
===== Technologies et savoir-faire =====
 
===== Technologies et savoir-faire =====
Cluster local : Intel Pentium IV 3,2GHz, Scientific-Linux 3.0.2, OpenPBS. Administration par scripts shell, mirroir local SL pour installation et mise à jour via YUM.
+
Cluster local Scientific-Linux 6, OpenPBS. Quattor (worker nodes, disk servers), Puppet, YAIM (service nodes)
  
Stockage : SAN, RAID5, NFS
+
Stockage : SAN, RAID5/6, xrootd, EOS
 +
 
 +
Divers : Surveillance Nagios, Support: Request-Tracker (RT), Virtualisation: VMware, Elogger.
  
Divers : Surveillance Nagios, Support: Request-Tracker (RT), duplication : Symantec-Ghost.
 
 
===== Liens =====
 
===== Liens =====
Site IN2P3-SUBATECH dans la GOCDB [https://goc.grid-support.ac.uk/gridsite/gocdb2/index.php?siteSelect=248]
+
Site IN2P3-SUBATECH dans la GOCDB [https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=151&grid_id=0]  
  
 
Expérience ALICE au LHC [http://aliceinfo.cern.ch/Public]
 
Expérience ALICE au LHC [http://aliceinfo.cern.ch/Public]
Ligne 45: Ligne 56:
  
 
Groupe Plasma à SUBATECH [http://www-subatech.in2p3.fr/%7Eplasma/index_plasma.html]
 
Groupe Plasma à SUBATECH [http://www-subatech.in2p3.fr/%7Eplasma/index_plasma.html]
 
==== English Version ====
 
The SUBATECH laboratory commited itself to take part as a "Tier-2" center to the processing and storage of data from the ALICE experiment at the LHC.
 
===== Resources dedicated to LCG =====
 
{| class="wikitable" style="text-align:center"  border="1" cellpadding="5" cellspacing="0"
 
|+
 
|-
 
! style="background:#efefef;" |  Year !! 2005 !! 2006 !! 2007 !! 2008 and beyond
 
|-
 
!  CPU (KSI2K) [1]
 
|  14 || 56  ||112  || 280
 
|-
 
! Stockage (To) [2]
 
|  4,25 || 15,3  || 31,62  ||  77,52
 
|-
 
|}
 
[1] : on the basis of 1CPU = 1,644 KSI2K
 
 
[2] : resources dedicated to LCG are 70% of local resources for CPU, 85% for storage
 
 
===== People and Human Resources =====
 
Scientific Manager : Laurent Aphecetche
 
 
Technical Manager : Jean-Michel Barbet
 
 
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Jean Andrianavaly.
 
 
Human resources dedicated to LCG currently account for 0,8 FTE. An engineer's position is now available via the CNRS's NOEMI procedure to reach about 1,3 FTE.
 
===== Funding et partners =====
 
Les achats ont étés réalisés avec des crédits provenant de l'Ecole des Mines de Nantes et avec l'aide de la Région des Pays-de-Loire.
 
===== Technologies and know-how =====
 
Local Cluster : Intel Pentium IV 3,2GHz, Scientific-Linux 3.0.2, OpenPBS. Administration with shell-scripts, local SL mirror to ease installation and updates via YUM.
 
 
Storage : SAN, RAID5, NFS
 
 
Misc.: Nagios monitoring, Support: Request-Tracker (RT), duplication : Symantec-Ghost.
 
===== Links =====
 
Site IN2P3-SUBATECH in the GOCDB [https://goc.grid-support.ac.uk/gridsite/gocdb2/index.php?siteSelect=248]
 
 
ALICE Experiment at the LHC [http://aliceinfo.cern.ch/Public]
 
 
AliEn Map [http://pcalimonitor.cern.ch:8889/show?page=index.html]
 
 
Plasma Group at SUBATECH [http://www-subatech.in2p3.fr/%7Eplasma/index_plasma.html]
 

Latest revision as of 12:38, 13 décembre 2017

Laboratoire SUBATECH - UMR CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes http://www-subatech.in2p3.fr/
Version Française | English Version

Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.

Ressources dédiées à LCG
Année 2005 [1] 2006 [1] 2007 [1] 2008 [2] 2009 [2] 2010 [3] 2011 [3] 2012 [3] 2013 [3] 2014 [3] 2015 [3] 2016 [3] 2017 [3] au-delà
CPU (KSI2K) 14 56 112 312 373 - - - - - - - - à définir
CPU (SPEC-HEP06) - - - - - 2400 3000 3000 3000 3000 3000 4500 4500 à définir
Stockage (To) 4,25 15,3 16 43 97 200 270 310 310 310 310 800 1619 à définir

[1] : sur la base de 1CPU = 1,644 KSI2K

[2] : en KSI2K CERN conformément à [CPU Capacity Metrics for WLCG]

[3] : SPEC-HEP06 : Nouvelle métrique

Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/

Personnes et moyens humains

Responsable Scientifique : Laurent Aphecetche

Responsable Technique : Jean-Michel Barbet

Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot. Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.

Financement et partenaires

Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la moitié des ressources CPU proviennent d'un mésocentre HPC de l'Université de Nantes : le CCIPL.

Technologies et savoir-faire

Cluster local Scientific-Linux 6, OpenPBS. Quattor (worker nodes, disk servers), Puppet, YAIM (service nodes)

Stockage : SAN, RAID5/6, xrootd, EOS

Divers : Surveillance Nagios, Support: Request-Tracker (RT), Virtualisation: VMware, Elogger.

Liens

Site IN2P3-SUBATECH dans la GOCDB [1]

Expérience ALICE au LHC [2]

Carte AliEn [3]

Groupe Plasma à SUBATECH [4]