Difference between revisions of "Tier 2:CPPM"

Un article de lcgwiki.
Jump to: navigation, search
 
(3 intermediate revisions by 2 users not shown)
Ligne 1: Ligne 1:
[[image:CPPMSmall.jpg]]
+
[[image:CPPM_JPG_small.jpg]]
 
*Responsable scientifique : François Touchard
 
*Responsable scientifique : François Touchard
 
*Responsable technique : Edith Knoops
 
*Responsable technique : Edith Knoops
Ligne 12: Ligne 12:
  
 
<b>Pour le moment le site est équipé </b>de :  
 
<b>Pour le moment le site est équipé </b>de :  
* 98 serveurs de calcul pour un total de 2000 coeurs
+
* 98 serveurs de calcul pour un total de 1920 coeurs
 
en SL6 avec un scheduler Torque/maui
 
en SL6 avec un scheduler Torque/maui
  
 
<b>L'espace de stockage est un serveur DPM</b>, séparé en :
 
<b>L'espace de stockage est un serveur DPM</b>, séparé en :
 
* marsedpm : Maître DPM.
 
* marsedpm : Maître DPM.
* 1Po réparti sur 20 serveurs de disques connecté en 10 Gbps au réseau local.
+
* 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.
 
Données accessibles avec srm,gsiftp,xroot,dav  
 
Données accessibles avec srm,gsiftp,xroot,dav  
  

Latest revision as of 16:03, 7 février 2017

CPPM JPG small.jpg

  • Responsable scientifique : François Touchard
  • Responsable technique : Edith Knoops
  • Autres personnes:
    • Site : Carlos Carranza, Thierry Mouthuy
    • ATLAS: Emmanuel Le Guirriec
    • LHCB : Andrei Tsaregorodtsev

Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG

Un projet M3AMU en collaboration avec le mesocentre de Marseille est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.

Pour le moment le site est équipé de :

  • 98 serveurs de calcul pour un total de 1920 coeurs

en SL6 avec un scheduler Torque/maui

L'espace de stockage est un serveur DPM, séparé en :

  • marsedpm : Maître DPM.
  • 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.

Données accessibles avec srm,gsiftp,xroot,dav


Réseau : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater

Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr