Difference between revisions of "User talk:LEROY"
(→Test sur le réseaux datagrid.cea.fr: Transfert de fichiers) |
(→Test sur le réseaux datagrid.cea.fr: Transfert de fichiers '''-2eme PHASE (3 SE-DISK au DAPNIA et multi threading)-''') |
||
Ligne 717: | Ligne 717: | ||
− | === Transfert FTS CC->DAPNIA // DAPNIA->CC avec plusieurs SE-DISK du DAPNIA (node11, node18, node20) === | + | === Transfert FTS: (CC->DAPNIA) // (DAPNIA->CC) avec plusieurs SE-DISK du DAPNIA (node11, node18, node20) === |
=== Transfert: FTS (CC->DAPNIA) // FTS (DAPNIA->CC) ) // LCG-CR (UI DAPNIA -> SE LAL) // globus-url-copy (SE LAL -> UI DAPNIA) === | === Transfert: FTS (CC->DAPNIA) // FTS (DAPNIA->CC) ) // LCG-CR (UI DAPNIA -> SE LAL) // globus-url-copy (SE LAL -> UI DAPNIA) === |
Version du 14:41, 11 mai 2007
Sommaire
- 1 Installation et Configuration d'une VO-BOX ALICE
- 1.1 Introduction
- 1.2 Ressources disques requises
- 1.3 Les ports à ouvrir pour la VO-BOX au niveau du router
- 1.4 Le profile de la VO-BOX sous Quattor
- 1.5 Après l'installation via Quattor de la machine
- 1.6 Durée du proxy
- 1.7 Backup
- 1.8 Se connecter à la VO-BOX depuis le UI
- 1.9 Utiliser le serveur myproxy
- 1.10 Start/Stop des services
- 1.11 Expiration du proxy
- 1.12 Monitoring / Accounting
- 1.13 Liens Utiles
- 2 LEMON : Sytème de Monitoring Client/Serveur
- 3 Test sur le réseaux datagrid.cea.fr: Iperf
- 4 Test sur le réseaux datagrid.cea.fr: Transfert de fichiers -1ere PHASE-
- 5 Test sur le réseaux datagrid.cea.fr: Transfert de fichiers -2eme PHASE (3 SE-DISK au DAPNIA et multi threading)-
Installation et Configuration d'une VO-BOX ALICE
Introduction
Un site grille qui souhaite supporter l'expérience ALICE, doit installer une VO-BOX. ALICE utilise AliEN (Alice ENvironment) comme plateforme logicielle pour la simulation et l'analyse des données. Alien est installé sur chaque VO-BOX. C'est le CE d'Alien qui soumet les Job Agents (JAs) au CE du site. Les JAs vont ensuite chercher les jobs dans central Task Queue de Alien. Les jobs écrivent via xrootd (directement vers le CERN pour le moment). Comme il n'y a pas encore d'interface xrootd/SRM, chaque VO-BOX doit fournir un stockage xrootd qui peut être sur un disque local.
Les documents à lire impérativement (en plus de ce guide) sont:
* ALICE LCG VO-Box Installation Guide * VOBOX Security and Operations Questionnaires
La VO-BOX n'est pas consommatrice en CPU et RAM. N'importe quel PC récent(Pentium+) avec 2GB+ de RAM peut faire l'affaire. Cependant un bon hardware est recommandé pour minimiser la fréquence des pannes.
Ressources disques requises
* Partition / (root) : au moins 2 GB * Partition /var : y prévoir 10-15 GB d'espace pour les logs d'Alien * /data (ou un autre nom) : partition local pour xrootd (prévoir 3G par job slot)
Remarques:
1. xrootd: sur un site avec plus de 30 job slots, passer si possible au mode "head node + xrootd servers" pour des raisons de performances 2. "/home" doit être local pour des raisons de performances et de gestion des "locks"
Les ports à ouvrir pour la VO-BOX au niveau du router
* 1975/tcp (gsissh): inbound from 137.138.0.0/16 and 192.16.186.192/26 * 1094/tcp(xrootd) * 8082/tcp (Storage Adapter) * 8083 (FTD) * 8084/tcp (Site Proxy) * 9991/tcp (PackMan) : Inbound from 137.138.0.0/16 * 1093/tcp (proofd)
Le profile de la VO-BOX sous Quattor
Dans clusters/<nom_site>-glite-x.y.z/profiles/profile_<nom_vobox>.tpl, faire:
{{{
include pro_<nom_site>_alice_glite_vobox; (voir cfg/clusters/ipno-glite-3.0.0/profiles/profile_ipnvobox.tpl)
}}}
Dans sites/<nom_site>/machine-types, créer pro_<nom_site>_alice_glite_vobox.tpl et pro_<nom_site>_alice_vobox_config.tpl
Vous pouvez copier et adpater les templates de l'IPNO ou du DAPNIA.
Après l'installation via Quattor de la machine
* Demander et installer le certificat serveur GRID-FR de la mchine * Vérifier que les utilisateurs alis et alip existent dans /etc/passwd * Verifier que Patricia Lorenzo Mendez et Artem Trunov sont bien mappés sur alis dans /etc/grid-security/grid-mapfile et qu'il y a quelqu'un mappé sur alip. Question ouverte: faut-il creer les pool accounts ? Ou faut-il créer uniqument les comptes alis, alip nécessaires pour ALICE ? * Dans /etc/shadow vous devez avoir '*' dans le champ 'password', sinon le logingsissh ne marchera pas. Donc il faut remplacer '!!' ou '!*NP*' par '*' {{{
[root@ipnvobox etc]# grep alis /etc/shadow alis:*:13574:0:99999:7:::
}}} * Vérifier que le serveur GSISSH tourne sur la VOBOX sur le port 1975. * Vérifier que $MYPROXY_SERVER pointe bien sur myproxy.cern.ch * Vérifier que la expérimental software area ($VO_ALICE_SW_DIR) est bien accessible via NFS depuis la VO-BOX et writeable par alis. Il faut au moins 5GB d'espace libre pour le soft d'ALICE. * Vérifier que la partition /data pour xrootd existe et appartient à alis (/data doit être crée sous Quattor ou à la main) {{{
[root@ipnvobox root]# ls -ld /data drwxr-xr-x 19 alis alice 4096 Dec 14 13:22 /data
}}} * Créer un directory pour les logs d'Alien (ex: /var/log/alis). Il doit appartenir à alis et nécessite 10-15 GB libre. {{{
[root@ipnvobox root]# ls -ld /var/log/alis drwxrwxrwx 10 alis alice 4096 Mar 2 16:54 /var/log/alis
}}} * Configurer le proxy-renewal service. MAIS, le script /opt/vobox/templates/voname-box-proxyrenewal n'est pas encore exécuté automatiquement. Cal a prévu de corriger le probleme. Donc si après l'installation de la VO-BOX, il manque alice-box-proxyrenewal dans /etc/cron.d/ et dans /etc/init.d/ ainsi que start, stop, agents et info-provider dans /opt/vobox/alice/, alors faire: 1. créer /etc/cron.d/alice-box-proxyrenewal: {{{
[root@ipnvobox root]# cat /etc/cron.d/alice-box-proxyrenewal
- !/bin/sh
20 2,8,14,20 * * * root (PATH=/sbin:/bin:/usr/sbin:/usr/bin; /sbin/service alice-box-proxyrenewal proxy)
}}} 2. copier /opt/vobox/templates/voname-box-proxyrenewal dans /tmp/alice-proxy-renewal.sh, adpatez-le et exécutez-le (le script que j'ai utilisé est en attachement: alice-proxy-renewal.sh). 3. vous devez alors retrouver les directories qui manquaient: {{{
[root@ipnvobox alice]# ls -l total 44 drwx------ 2 alis alice 4096 Jul 19 2006 agents -rw-rw-rw- 1 alis alice 0 Nov 14 09:09 edglog.log drwx------ 2 alis alice 4096 Jul 19 2006 info-provider drwx------ 2 alis alice 4096 Mar 1 04:02 log drwx------ 2 alis alice 4096 Mar 2 17:19 proxy_repository -rw------- 1 alis alice 13750 Mar 2 17:04 _registerer_proxies.db -r-------- 1 alis alice 2690 Mar 2 14:20 renewal-proxy.pem drwx------ 2 alis alice 4096 Aug 6 2006 start drwx------ 2 alis alice 4096 Aug 5 2006 stop
}}} * Envoyer un e-mail à: Patricia.Mendez@cern.ch, latchezar.betev@cern.ch et trunov@cc.in2p3.fr :
1. demander que la machine soit enregistrée 'as trusted host' dans myproxy.cern.ch dans LDAP (il faut fournir le DN de la VOBOX). 2. fournir les informations suivantes dans le mail:
* hostname de la VO-BOX * le nom des users: alicesgm (alis dans GRIF), alip (ALICE Production) * le nom directory pour xrootd (ex: /data) * le nom du SE/DPM Server (ex: ipnsedpm.in2p3.fr) * le nom du serveur LFC (ex: grid14.lal.in2p3.fr) et le catalogue pour ALICE (/grid/alice) * le nom du RB (ex: grid09.lal.in2p3.fr) * le nom du CE et de la queue batch (ex: ipnls2001.in2p3.fr:2119/jobmanager-pbs-alice) * le path pour le experiment software area (ex:VO_ALICE_SW_DIR=/ipn/storage1/exp_soft/alis, zone "NFS shared" avec les WNs) * Installer Alien ou demander que Artem ou Patricia vous l'installe. * S'inscrire individullement dans le projet ALICE (voir avec un physicien d'ALICE du Labo et avec le Secrétariat d'ALICE) : 1. demander un logon au CERN (si vous n'en avez pas déjà) 2. demander à être enregistré comme membre du projet ALICE * Inscrivez-vous dans AliEn en suivant les étapes sur la page http://alien.cern.ch/twiki/bin/view/Alice/UserRegistration 1. Vous serez amenés à vous inscrire dans la VO ALICE (si ce n'est pas déjà fait) sur https://lcg-voms.cern.ch:8443/vo/alice/vomrs 2. Ensuite vous pourrez vous inscrire dans AliEn ("5. Register with AliEn" sur https://alien.cern.ch:8443/twiki/bin/UserReg * Demander ensuite à être mapé sur 'alidprod' si vous voulez pouvoir utiliser AliEn sous votre nom (ALIEN_USER=user_name dans ~alis/.alien/Environment) la VO-BOX (start/stop des services par exemples) * Mettre dans /etc/motd des informations utiles à afficher lors de la connexion [gsi]ssh: LFC server, catalog pour alice, zone pour xrootd, etc.
Durée du proxy
Vérifier dans /opt/lcg/sbin/vobox-renewd qu'on a '-t 48' :
{{{
${GLOBUS_LOCATION}/bin/myproxy-get-delegation -a ${VOBOX_PROXY_REPOSITORY}/${CERT} -d -o $TMP_PROXY -t 48 2>&1 > /dev/null
}}}
Il s'agit d'un problème qui devrait être résolu dans le futur
Backup
Faire régulièrement des sauvegardes de ~alis, /opt/vobox et des logs d'Alien (ex: /var/log/alis)
Se connecter à la VO-BOX depuis le UI
Faire 'gsissh -l user -p port_GSISSH <vobox_name> '
{{{
[diarra@ipngrid01 ~]$ gsissh -l alis -p 1975 ipnvobox
}}}
Utiliser le serveur myproxy
Sur le UI:
{{{
myproxy-init -s myproxy.cern.ch -d -n -t 48 -c 720 gsissh -l alis -p 1975 <vobox_name>
}}}
Sur la VO-BOX:
{{{
vobox-proxy --vo alice --proxy-safe 3600 --myproxy-safe 259200 --email <votre_e-mail> register
}}}
Pour s'assurer que le proxy est renouveler automatiquement, vérifier que vous avez dans /opt/vobox/alice/log/events.log une ligne du genre:
{{{
9/07/06 14:35:56 : Proxy for DN "/O=GRID-FR/C=FR/O=CNRS/OU=IPNO/CN=Christophe Diarra/CN=proxy/CN=proxy/CN=proxy" successfully renewed
}}}
Dans /opt/vobox/alice/proxy_repository/ vous trouverez le proxy.
Start/Stop des services
Les services peuvent être démarrés un par un. Les services disponibles sont : Monitor, SE, CE, PackMan, Monalisa.
Un script permet de les démarrer ou de les arrêter dans le bon ordre:
stop
Pour démarrer ou arreter un seul service :
StopServiceName
Exemple: $VO_ALICE_SW_DIR/alien/scripts/lcg/lcgAlien.sh StopCE $VO_ALICE_SW_DIR/alien/scripts/lcg/lcgAlien.sh StartCE
Expiration du proxy
Quand vous recevez un mail indiquant que le proxy est sur le point d'expirer (3 jours avant ?), ou si les logs le signalent, il faut renouveler le proxy sur le serveur myproxy depuis le UI.
{{{
[root@ipnvobox log]# more /opt/vobox/alice/log/events.log ... 11/26/06 15:03:05 : Myproxy lifetime (256228 sec) shorter than security threshol d (259200 sec) 11/26/06 15:03:05 : ... for DN /O=GRID-FR/C=FR/O=CNRS/OU=IPNO/CN=Christophe Diar ra 11/26/06 15:03:05 : sendind notification email to diarra@ipno.in2p3.fr. SUCCESSF ULL
}}}
Sur le UI:
{{{
[diarra@ipnls2011 my]$ myproxy-info -d -s myproxy.cern.ch username: /O=GRID-FR/C=FR/O=CNRS/OU=IPNO/CN=Christophe Diarra owner: /O=GRID-FR/C=FR/O=CNRS/OU=IPNO/CN=Christophe Diarra
timeleft: 52:25:26 (2.2 days)
[diarra@ipnls2011 my]$ myproxy-init -s myproxy.cern.ch -d -n -t 48 -c 720 Your identity: /O=GRID-FR/C=FR/O=CNRS/OU=IPNO/CN=Christophe Diarra Enter GRID pass phrase for this identity: Creating proxy ............................................ Done Proxy Verify OK Your proxy is valid until: Wed Dec 27 09:56:25 2006 A proxy valid for 720 hours (30.0 days) for user /O=GRID-FR/C=FR/O=CNRS/OU=IPNO/CN=Christophe Diarra now exists on myproxy.cern.ch.
}}}
Monitoring / Accounting
* ALICE Monitoring with MonALISA * ALICE Dashboard : Job Summary
Liens Utiles
Debugging & Troubleshooting the ALICE LCG Vo-Box
VO-box HowTo - description, installation, testing
VOBOX Security and Operations Questionnaires
LCG VOBox Operations Recommendations and Questionnaire
How to install xrootd on data servers
LEMON : Sytème de Monitoring Client/Serveur
http://lemon.web.cern.ch/lemon/ http://lemon.web.cern.ch/lemon/doc/installation/installation.html
Installation du Serveur Lemon via quattor en SL4
Utilser les 2 templates : {{{ pro_software_lemon_server_sl4_i386; pro_service_lemon_server; }}}
Qui vont:
1) installer les RPMs necessaires
{{{ ("edg-fabricMonitoring-server","2.13.0-3","i386"); ("rrdtool","1.0.49-2.1.el3.rf","i386"); ("lrf","1.0.7-15","i386"); ("ncm-fmonagent","1.0.32-1","noarch"); ("perl-TimeDate","2.22-1","noarch"); ("httpd","2.0.52-22.ent","i386"); ("httpd-suexec","2.0.52-22.ent","i386"); ("system-config-httpd","1.3.1-1","noarch"); ("php-ldap","4.3.9-3.15","i386"); ("php-gd","4.3.9-3.15","i386"); ("php-imap","4.3.9-3.15","i386"); ("php-pear","4.3.9-3.15","i386"); ("php","4.3.9-3.15","i386"); ("oracle-xe-univ","10.2.0.1-1.0","i386"); ("cx_Oracle","4.1-1","i386"); ("lemon-ora-admin","1.0.4-96","noarch");
- lemon-OraMon probleme de dependance: l'installer avec --nodeps (info from Miroslav Sicket CERN)
("lemon-OraMon","1.2.0-1","i386");}}} }}}
2) configurer les fichiers suivant :
{{{
/etc/lemon/server/lemon-oramon-server.conf
/var/www/html/lrf/config.php
/var/spool/edg-fmon-server/nodes.map
/etc/lemon/lemonmrd.conf
}}}
3) et demarrer les 2 demons :
{{{ /etc/init.d/OraMon /etc/init.d/lemonmrd }}}
Configuration Hors Quattor
1) Configuration de la Base de Donée:
{{{
/etc/init.d/oracle-xe configure
. /usr/lib/oracle/xe/app/oracle/product/10.2.0/server/bin/oracle_env.sh
sqlplus system
SQL> EXEC DBMS_XDB.SETLISTENERLOCALACCESS(FALSE);
/etc/init.d/oracle-xe start }}}
2) Ajouter l'utilisateur lemon
via l'interface http://ma_machine:port_choisi/apex
3) Configuration de Oramon :
{{{ lemon-ora.admin --create-schema -d xe --data-tablespace=USERS --index-tablespace=USERS lemon-ora.admin --file=/etc/oramon-server.conf -d xe --all --data-tablespace=USERS --index-tablespace=USERS lemon-ora.admin --file=/etc/oramon-server.conf -d xe -u lemon --create-las --data-tablespace=USERS --index-tablespace=USERS }}}
4) exporter les variables Oracle :
{{{
export LD_LIBRARY_PATH=/usr/lib/oracle/xe/app/oracle/product/10.2.0/server/lib:/usr/lib/oracle/10.2.0.3/client/lib
export ORACLE_SID=XE
export PATH=$PATH:/usr/lib/oracle/xe/app/oracle/product/10.2.0/server/bin
export ORACLE_HOME=/usr/lib/oracle/xe/app/oracle/product/10.2.0/server
export TNS_ADMIN=/usr/lib/oracle/xe/app/oracle/product/10.2.0/server/network/admin
export PYTHONPATH=/usr/lib/python2.2/site-packages
export NLS_LANG=AMERICAN_AMERICA.AL32UTF8
}}}
Dans tous les fichiers de demarrage suivant : {{{ /etc/init.d/lemonmrd /etc/init.d/httpd /etc/sysconfig/OraMon }}}
5) Et verifier ensuite les logs, et que le serveur collecte bien des données :
{{{ /var/log/lemonmrd.log /var/www/html/lrf/data }}}
Ajout de nouvelles sondes/metriques
I) Sur le client
a)
[root@node07 sensor-example]# cat /etc/lemon/agent/sensors/torque_maui.conf
torque_maui CommandLine /usr/bin/perl /usr/libexec/sensors/lemon-sensor.pl RunningJobs MetricClasses torque_maui.RunningJobs
b)
[root@node07 sensor-example]# cat /etc/lemon/agent/metrics/torque_maui.conf
20047 MetricName Jobsrunning MetricClass torque_maui.RunningJobs Timing 3600 0
c)
[root@node07 sensor-example]# cat /usr/libexec/sensors/RunningJobs.pm
#!/usr/bin/perl -w package torque_maui; # modules use diagnostics; use strict; # the sensor API interface use sensorAPI; # register module name and version registerVersion("lemon-sensor-torque_maui", "1.0.0-1"); # register the sensors metric classes registerMetric("torque_maui.RunningJobs", "report the Running Jobs", "torque_maui::RunningJobs"); sub RunningJobs_sample() { # All function hooks in the sensor API: _sample(), _initialise(), _periodicCheck(), _destroy() # are passed a hash as the first argument. This hash provides the function with the ability to # access the methods and variables of the metric instance/object. This is Perls implementation # of Object Orientation my $obj = shift; # variables my $line = `/usr/bin/showq -r | echo \$((\$(wc -l)-4))`; $obj->storeSample01($line); # All functions called by the sensor API must return a value # - if the sampling was successful you the return code should be 0 and -1 on error return 0; } 1; #-- End-of-File --------------------------------------------------------------------------------------#
II) Pour le serveur
1) Pour Oramon
a) modifier le fichier /etc/oramon-server.conf
………..
torque_maui.RunningJobs Description Running jobs on the CE? Fields Running_Jobs Type INTEGER MetricUnit count MetricScale 1
……………..
20047 MetricClass torque_maui.RunningJobs MetricName Jobsrunning Description Running Jobs on the CE? TableName _20047
Metric classes part into corresponding metric class part, metric instance into metric instances (be carefull about the tabs).
b) sourcer laes variables d'environnement oracle :
. /usr/lib/oracle/xe/app/oracle/product/10.2.0/server/bin/oracle_env.sh
c) mettre a jour la Database:
lemon-ora.admin --file=/etc/oramon-server.conf -d xe -u lemon --all --data-tablespace=USERS --index-tablespace=USERS
2) Pour LRF
a) # tail -3 /var/spool/edg-fmon-server/metrics.map
182 20015 /home.use 183 30050 exitCodeNFS 184 20047 RunningJobs
b)# more /etc/lemon/lemonmrd.conf
……………..
RunningJobs=Jobsrunning:Running_Jobs
……………..
[node07.datagrid.cea.fr] type=host metrics=+RunningJobs
c) #grep -i job /var/www/html/lrf/metric_map.php
"RunningJobs" => array("RunningJobs","Jobs running","count",1,0,'Jobsrunning.Running_Jobs'),
1 => array('name' => 'JOBS STATISTICS', 'y-axis' => 'count', 'stack' => false, 'base' => 1,
'metrics' => array( 0 => array('name' => 'RunningJobs', 'summary' => true, 'title' => 'Running Jobs')
Pour configurer les alarmes
a) créer un fichier xml par machine:
{{{
- cat /tmp/my_cnf_node07.xml
<?xml version = '1.0'?> <CDBSEARCHLIST> <HOST ID="node07.datagrid.cea.fr" CLUSTER ="GRID_SERVICES" SUBCLUSTER ="" IMPORTANCE ="0" SURESTATUS ="TRUE" NOCONTACTTIMEOUT ="660" PINGTIMEOUT ="" /> </CDBSEARCHLIST>
}}}
b) mettre a jour la Database:
{{{
- lemon-ora.entities -u lemon -d xe -c /tmp/my_cnf_node07.xml
}}}
Problemes rencontrés
ne pas oublier d'exporter les variables oracles
le fichies nodes.map ne doit pas avoir de lignes vides
Les Symlink avec cette version d'apache ne fonctionne pas (on utlisie /var/www/html/lrf/data au lieu de /var/spool/data)
Php avec oci8 tres sensibles aux versions (plus de soucis avec les versions SL4 ci dessus)
Test sur le réseaux datagrid.cea.fr: Iperf
Le 20/03/2007
Avec 5 threads :
Lyon -> Saclay : 550Mb/s (peu variable) ;
Saclay -> Lyon : 600 Mb/s (très variables de 250 Mb/s à 750 Mb/s)).
Avec 1 thread : 300 Mb/s dans les 2 sens
Test sur le réseaux datagrid.cea.fr: Transfert de fichiers -1ere PHASE-
Sites impliqués
- T1 CC-IN2P3
- Contacts : David Bouvet, Lionel Schwarz
- SE : ccsrm.in2p3.fr
- Endpoint transferts DAPNIA-CC : /pnfs/in2p3.fr/data/dteam/disk/dapnia/
- T2 GRIF
- Contacts : Christine Leroy
- SE-DAPNIA : node12.datagrid.cea.fr
- GlueServiceEndpoint: httpg://node12.datagrid.cea.fr:8443/srm/managerv1
- GlueSAPath: /dpm/datagrid.cea.fr/home/dteam
- SE-LAL : grid05.lal.in2p3.fr
conditions de transferts pour FTS
Les transferts sont initiés depuis node02.datagrid.cea.fr
- Avant tout transfert, il faut un proxy valide déposé sur un serveur MyProxy pour permettre au serveur FTS de renouveler un proxy expiré en cours de transfert
myproxy-init -s cclcgproxli01.in2p3.fr -d
glite-transfer-channel-list -s https://cclcgftsprod01.in2p3.fr:8443/glite-data-transfer-fts/services/ChannelManagement GRIF-IN2P3
glite-transfer-channel-set -s https://cclcgftsprod01.in2p3.fr:8443/glite-data-transfer-fts/services/ChannelManagement -f 10 -T 1 GRIF-IN2P3
Les tests de transferts
-Script de test des transferts FTS proposé par GridPP à l'adresse : http://www.gridpp.ac.uk/wiki/Transfer_Test_Python_Script_HOWTO
-Le wiki GriPP est une mine d'informations : http://www.gridpp.ac.uk/wiki/Main_Page
CC->DAPNIA
set SourceURL="srm://ccsrm.in2p3.fr:8443/" set DestURL="srm://node12.datagrid.cea.fr:8443/dpm/datagrid.cea.fr/home/dteam/"
liste des fichiers:
srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00007 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00008 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00009 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00011 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00012 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00013 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00014 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00015 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00016 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00017 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00018 srm/managerv1?SFN=/pnfs/in2p3.fr/data/dteam/dapnia/cleroy/ATLAS-file00019
DAPNIA -> CC
set SourceURL="srm://node12.datagrid.cea.fr:8443/dpm/datagrid.cea.fr/home/dteam/dapnia/" set DestURL="srm://ccsrm.in2p3.fr:8443/pnfs/in2p3.fr/data/dteam/disk/dapnia/"
liste des fichiers (1 seul SE-DISK)
cleroy/ATLAS-file00007 cleroy/ATLAS-file00008 cleroy/ATLAS-file00009 cleroy/ATLAS-file00011 cleroy/ATLAS-file00012 cleroy/ATLAS-file00013 cleroy/ATLAS-file00014 cleroy/ATLAS-file00015 cleroy/ATLAS-file00016 cleroy/ATLAS-file00017 cleroy/ATLAS-file00018 cleroy/ATLAS-file00019
en parrallele avec n=10 pour les 2 type de transfet, pour durer environ 20 minutes (1Gb/s).
FTS configuré avec (f6;T2).
ESSAI du nbre de | (fichier;stream) | Bande passante(Mb/s) | ------------------+-----------------------+ | (f8;T1) | 242 | | (f6;T1) | 301 | | (f3;T1) | 302 | | (f2;T1) | 185 | | (f6;T2) | 312 | | (f6;T6) | 284 | | (f6;T4) | 280 |
Resultat 26/04/2007 :
D-CC
Transfer Bandwidth Report: 110/120 transferred in 2668.16920614 seconds 81081938300.0 bytes transferred. Bandwidth: 243.108834667Mb/s
CC-D
Transfer Bandwidth Report: 120/120 transferred in 3033.88385892 seconds 88453023600.0 bytes transferred. Bandwidth: 233.240368355Mb/s
Débit réseaux pour le SE DISK du DAPNIA (derriere node12):
http://lcg2.in2p3.fr/wiki/images/Node11_net_fts_26042007.gif
Débit réseaux routeur datagrid.cea.fr:
http://lcg2.in2p3.fr/wiki/images/Routeur_datagridceafr_26042007.png
utilisation de:
- filetransfer.py entre DAPNIA <-> Lyon (SE <-> SE)
- globus_url_copy et lcg-cr entre DAPNIA <-> Orsay (UI <-> SE)
Le 02/05/2007: Meme occupation réseaux :300Mb/s
CONCLUSION PRELIMINIARE
=> Ces tests avaient pour but d'occuper le plus possible la bande passante de notre réseaux datagrid.cea.fr, pour s'assurer que le routeur tenait bien la charge
=> Nous n'avons pas reussi à occuper toute la bande passante: tests à poursuivre avec plus de client/serveur => Le comble de l'informaticien: réussir à faire mieux que ses utilisateurs:
One day, One atlas physicit, Many jobs:
http://lcg2.in2p3.fr/wiki/images/Node11.datagrid.cea.fr.rrd_NUMKBREADAVG_d.gif
Débit réseaux SE DISK, le 16/06/2006