Difference between revisions of "Tier 2:CPPM"
M |
|||
(26 intermediate revisions by 4 users not shown) | |||
Ligne 1: | Ligne 1: | ||
− | [[image: | + | [[image:CPPM_JPG_small.jpg]] |
− | *Responsable scientifique : | + | *Responsable scientifique : Arnaud Duperrin |
− | *Responsable technique : Thierry Mouthuy | + | *Responsable technique : Edith Knoops |
+ | *Autres personnes: | ||
+ | **Site : Carlos Carranza, Thierry Mouthuy | ||
+ | **ATLAS: Emmanuel Le Guirriec | ||
+ | **LHCB : Andrei Tsaregorodtsev | ||
− | Le CPPM | + | Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG |
− | + | Un projet M3AMU en collaboration avec le mesocentre de Marseille est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO. | |
− | <b>Pour le moment le site est équipé </b>de : | + | <b>Pour le moment le site est équipé </b>de : |
− | * | + | * 98 serveurs de calcul pour un total de 1920 coeurs |
− | + | en SL6 avec un scheduler Torque/maui | |
− | |||
− | |||
− | |||
− | <b>L'espace de stockage est un serveur DPM</b>, séparé en | + | <b>L'espace de stockage est un serveur DPM</b>, séparé en : |
− | * marsedpm : | + | * marsedpm : Maître DPM. |
− | * | + | * 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local. |
− | + | Données accessibles avec srm,gsiftp,xroot,dav | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | Site information system: ldap:// | + | <b>Réseau</b> : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater |
+ | |||
+ | Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid | ||
<br><b>Administrator contact</b> : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr] | <br><b>Administrator contact</b> : [mailto:gridadmin@cppm.in2p3.fr gridadmin@cppm.in2p3.fr] | ||
<hr> | <hr> | ||
− | *LCG Grid Operations Centre's entry for this site: | + | *LCG Grid Operations Centre's entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=155&grid_id=0 IN2P3-CPPM] ''(access granted by LCG user certificate)'' |
− | *Supported LHC VOs: Atlas,LHCb | + | *Supported LHC VOs: Atlas, LHCb |
− | *Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam | + | *Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero |
*LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM] | *LCG Information System Monitor for this site: [http://goc.grid.sinica.edu.tw/gstat/IN2P3-CPPM/ IN2P3-CPPM] |
Latest revision as of 11:46, 11 janvier 2022
- Responsable scientifique : Arnaud Duperrin
- Responsable technique : Edith Knoops
- Autres personnes:
- Site : Carlos Carranza, Thierry Mouthuy
- ATLAS: Emmanuel Le Guirriec
- LHCB : Andrei Tsaregorodtsev
Le CPPM a installé en ses murs un noeud de calcul intégré à LCG pour permettre à ses physiciens de pouvoir participer efficacement aux analyses futures. Fin 2010 ce noeud passe du statut Tier3 à celui de Tier2 pour LCG
Un projet M3AMU en collaboration avec le mesocentre de Marseille est en cours de demande financement(CPER/Feder). Il vise à mettre en ligne environ 5000 coeurs de calcul et un espace de stockage de l'ordre de 3-4 PO.
Pour le moment le site est équipé de :
- 98 serveurs de calcul pour un total de 1920 coeurs
en SL6 avec un scheduler Torque/maui
L'espace de stockage est un serveur DPM, séparé en :
- marsedpm : Maître DPM.
- 1,4 Po réparti sur 22 serveurs de disques connecté en 10 Gbps au réseau local.
Données accessibles avec srm,gsiftp,xroot,dav
Réseau : Coeur de réseau 10 Gbit/s, double attachement 10 Gbps/s entre les switchs, 10 Gbit/s vers Renater
Site information system: ldap://marbdii.in2p3.fr:2170/mds-vo-name=IN2P3-CPPM,o=grid
Administrator contact : gridadmin@cppm.in2p3.fr
- LCG Grid Operations Centre's entry for this site: https://goc.egi.eu/portal/index.php?Page_Type=View_Object&object_id=155&grid_id=0 IN2P3-CPPM] (access granted by LCG user certificate)
- Supported LHC VOs: Atlas, LHCb
- Supported non LHC VOs : Hone (H1), Biomed, Egeode, Esr, Dteam, Dzero
- LCG Information System Monitor for this site: IN2P3-CPPM