Difference between revisions of "Tier 2:Subatech"

Un article de lcgwiki.
Jump to: navigation, search
(Version Française)
(25 intermediate revisions by 4 users not shown)
Ligne 1: Ligne 1:
=== Tier2 : Subatech Nantes ===
 
 
Laboratoire SUBATECH - UMR
 
Laboratoire SUBATECH - UMR
 
CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes
 
CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes
 
http://www-subatech.in2p3.fr/
 
http://www-subatech.in2p3.fr/
==== Version Française ====
+
<br>
 +
[[Tier_2:Subatech |Version Française ]] | [[Tier_2:Subatech_en|English Version ]]
 +
 
 
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
 
Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.
 
===== Ressources dédiées à LCG =====
 
===== Ressources dédiées à LCG =====
Ligne 9: Ligne 10:
 
|+
 
|+
 
|-
 
|-
! style="background:#efefef;" |  Année !! 2005 !! 2006 !! 2007 !! 2008 et au-delà
+
! style="background:#efefef;" |  Année !! 2005 [1]!! 2006 [1]!! 2007 [1]!! 2008 [2] !! 2009 [2] !! 2010 [3] !! 2011 [3] !! 2012 [3] !! 2013 [3] !! 2014 [3] !! 2015 [3] !! 2016 [3] !! 2017 [3] !! au-delà
 +
|-
 +
!  CPU (KSI2K)
 +
|  14 || 56  ||112  || 312 || 373 || - || - || - || - || - || - || - || - || à définir
 
|-
 
|-
!  CPU (KSI2K) [1]
+
!  CPU (SPEC-HEP06)
14 || 56 ||112 || 280
+
- || - || - || - || - || 2400 || 3000 || 3000 || 3000 || 3000 || 3000 || 4500 || 4500 || à définir
 
|-
 
|-
! Stockage (To) [2]
+
! Stockage (To)  
|  4,25 || 15,3  || 31,62 ||  77,52
+
|  4,25 || 15,3  || 16 ||  43 || 97 || 200 || 270 || 310 || 310 || 310 || 310 || 800 ||  1619 ||à définir
 
|-
 
|-
 
|}
 
|}
 
[1] : sur la base de 1CPU = 1,644 KSI2K  
 
[1] : sur la base de 1CPU = 1,644 KSI2K  
  
[2] : les ressources dédiées à LCG représentent 70% des ressources locales pour le CPU, 85% pour le stockage.
+
[2] : en KSI2K CERN conformément à [[http://www.cern.ch/LCG/documents/Processor%20performance%20metrics_26may07.pdf CPU Capacity Metrics for WLCG]]
 +
 
 +
[3] : SPEC-HEP06 : Nouvelle métrique
 +
 
 +
Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/
 +
 
 
===== Personnes et moyens humains =====
 
===== Personnes et moyens humains =====
 
Responsable Scientifique : Laurent Aphecetche
 
Responsable Scientifique : Laurent Aphecetche
Ligne 26: Ligne 35:
 
Responsable Technique : Jean-Michel Barbet
 
Responsable Technique : Jean-Michel Barbet
  
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Jean Andrianavaly.
+
Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot.
 +
Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.
  
Les moyens humains dédiés à LCG représentent actuellement 0,8 ETP. Un poste d'IE est actuellement affiché en NOEMI pour atteindre environ 1,3 ETP.
 
 
===== Financement et partenaires =====
 
===== Financement et partenaires =====
Les achats ont étés réalisés avec des crédits provenant de l'Ecole des Mines de Nantes et avec l'aide de la Région des Pays-de-Loire.
+
Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la moitié des ressources CPU proviennent d'un mésocentre HPC de l'Université de Nantes : le CCIPL.
 +
 
 
===== Technologies et savoir-faire =====
 
===== Technologies et savoir-faire =====
Cluster local : Intel Pentium IV 3,2GHz, Scientific-Linux 3.0.2, OpenPBS. Administration par scripts shell, mirroir local SL pour installation et mise à jour via YUM.
+
Cluster local Scientific-Linux 6, OpenPBS. Quattor (worker nodes, disk servers), Puppet, YAIM (service nodes)
 +
 
 +
Stockage : SAN, RAID5/6, xrootd, EOS
  
Stockage : SAN, RAID5, NFS
+
Divers : Surveillance Nagios, Support: Request-Tracker (RT), Virtualisation: VMware, Elogger.
  
Divers : Surveillance Nagios, Support: Request-Tracker (RT), duplication : Symantec-Ghost.
 
 
===== Liens =====
 
===== Liens =====
Site IN2P3-SUBATECH dans la GOCDB [https://goc.grid-support.ac.uk/gridsite/gocdb2/index.php?siteSelect=248]
+
Site IN2P3-SUBATECH dans la GOCDB [https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=151&grid_id=0]  
  
 
Expérience ALICE au LHC [http://aliceinfo.cern.ch/Public]
 
Expérience ALICE au LHC [http://aliceinfo.cern.ch/Public]
Ligne 45: Ligne 56:
  
 
Groupe Plasma à SUBATECH [http://www-subatech.in2p3.fr/%7Eplasma/index_plasma.html]
 
Groupe Plasma à SUBATECH [http://www-subatech.in2p3.fr/%7Eplasma/index_plasma.html]
 
==== English Version ====
 

Version du 11:38, 13 décembre 2017

Laboratoire SUBATECH - UMR CNRS/IN2P3-Ecole des Mines de Nantes-Université de Nantes http://www-subatech.in2p3.fr/
Version Française | English Version

Le laboratoire SUBATECH s'est engagé à participer en tant que centre de traitement "Tier-2" au stockage et à l'analyse des données issues de l'expérience ALICE au LHC.

Ressources dédiées à LCG
Année 2005 [1] 2006 [1] 2007 [1] 2008 [2] 2009 [2] 2010 [3] 2011 [3] 2012 [3] 2013 [3] 2014 [3] 2015 [3] 2016 [3] 2017 [3] au-delà
CPU (KSI2K) 14 56 112 312 373 - - - - - - - - à définir
CPU (SPEC-HEP06) - - - - - 2400 3000 3000 3000 3000 3000 4500 4500 à définir
Stockage (To) 4,25 15,3 16 43 97 200 270 310 310 310 310 800 1619 à définir

[1] : sur la base de 1CPU = 1,644 KSI2K

[2] : en KSI2K CERN conformément à [CPU Capacity Metrics for WLCG]

[3] : SPEC-HEP06 : Nouvelle métrique

Référence : http://gstat-wlcg.cern.ch/apps/pledges/resources/

Personnes et moyens humains

Responsable Scientifique : Laurent Aphecetche

Responsable Technique : Jean-Michel Barbet

Exploitation : Khalil Chawoshi (Chef du Service Informatique), Jean-Michel Barbet, Pierrick Le Corre, Erwan Macé et Jérome Pinot. Les moyens humains dédiés à LCG représentent actuellement 1,2 ETP.

Financement et partenaires

Les achats ont étés réalisés avec les crédits du laboratoire avec l'aide de la Région des Pays-de-Loire. Depuis Juin 2017, la moitié des ressources CPU proviennent d'un mésocentre HPC de l'Université de Nantes : le CCIPL.

Technologies et savoir-faire

Cluster local Scientific-Linux 6, OpenPBS. Quattor (worker nodes, disk servers), Puppet, YAIM (service nodes)

Stockage : SAN, RAID5/6, xrootd, EOS

Divers : Surveillance Nagios, Support: Request-Tracker (RT), Virtualisation: VMware, Elogger.

Liens

Site IN2P3-SUBATECH dans la GOCDB [1]

Expérience ALICE au LHC [2]

Carte AliEn [3]

Groupe Plasma à SUBATECH [4]