Test-rete-gdc
Scopo del lavoro[edit]
Scopo di questo lavoro è valutare le prestazioni dell'attuale configurazione di con particolare riguardo alle prestazioni dei sistemi storage. Nel fare questo si vuole quanto più possibile avere una valutazione slegata dall'applicativo che utilizza l'infrastruttura, per questo motivo si è deciso di "mimare" il comportamente tipico di un job in esecuzione sulla farm senza usare un vero job. Questo tipo di test sarà quindi ripertuto sulla nuova instrastruttura di rete per valutare i benefici ottenuti.
Installazione software[edit]
L'idea è di utilizzare il noto software "iperf" in due configurazioni distinte:
1- installato su alcuni server dcache e configurato come server per accettare le connessioni provenienti dalle macchine della farm;
2- installato su tutti i WN della farm grid ed utilizzato come client per collegarsi ai server di cui al punto 1, in questo modo simulando il comportamento del job che va ad accedere alle risorse di storage ma senza utilizzare l'infrastruttura di storage dell'esperimento.
Per quanto riguarda la farm il software è distribuito sia tramite AFS che GPFS quindi non è necessaria l'installazione su i singoli nodi, mentre per i server è stato installato su 5 macchine (cmsdcache7, 9, 10, 11, 12).
Topologia della rete attuale[edit]
Attualmente la rete del Grid Data Center è organizzate su due livelli in maniera stellare. I vari rack sono dotati di uno switch "top of the rack" che puo' essere interamente GE o FE ma comunque con un solo uplink di tipo GE verso un centro stella "di sala" costituito da una macchina Extreme Networks Summit 400-48.
I server dcache di CMS (15 in tutto) sono attestati su due switch di rack secondo la seguente disposizione:
- switch1: cmsdcache4, 5, 6
- switch2: cmsdcache2, 7, 9, 10, 11, 12, 13, 14, 15
- spenti: cmsdcache1, 3, 8
I sistemi operativi installati su questi server sono: Linux Ubuntu, Scientific Linux 5, Solaris, Open Solaris. Per fare il test sono stati presi i soli server con Scientific Linux 5.
Primi test[edit]
Data l'attuale topologia di rete e configurazione dei server l'aggregato massimo che si si può aspettare fra WN e server di cache e' 2x1Gb/s ossia 250MB/s che si dimezzano nel caso di utilizzo "sbilanciato dei server". Previsione questa varificabile dalle statistiche di Ganglia come si può anche vedere dai grafici di utilizzo della rete nell'ultimo giorno e settimana riportati di seguito:
questo traffico provenedo dalle tre farm (Libeccio Scirocco e Maestrale) che compongono la potenza computazionale del nodo grid INFN-Pisa come si può vedere sempre dalle statistiche Ganglia raccolte nella solita giornata (colonna di sinistra) e settimana (colonna di destra) delle precedenti per i server dcache:
Questo stato di "saturazione" dei link rende difficile l'esecuzione del test in oggetto. E' da notare però che lo stato di saturazione è nel verso dcache->WN quindi si può sfruttare questa asimmetria per fare test nel verso opposto WN->dcache. Questo, dal punto di vista di un job grid corrisponde alla scrittura di un file. Un test di questo tipo fra 10 WN di Scirocco e cmsdcache7 protratto per 15 minuti è rappresentato nei grafici seguenti:
Questo è l'output dei risultati lato server:
[ 5] local 193.205.76.9 port 5001 connected with 193.205.77.1 port 59368
[ 4] local 193.205.76.9 port 5001 connected with 193.205.77.2 port 53582
[ 6] local 193.205.76.9 port 5001 connected with 193.205.77.3 port 43333
[ 7] local 193.205.76.9 port 5001 connected with 193.205.77.4 port 55909
[ 8] local 193.205.76.9 port 5001 connected with 193.205.77.5 port 56360
[ 9] local 193.205.76.9 port 5001 connected with 193.205.77.6 port 60067
[ 10] local 193.205.76.9 port 5001 connected with 193.205.77.7 port 53688
[ 11] local 193.205.76.9 port 5001 connected with 193.205.77.8 port 56508
[ 12] local 193.205.76.9 port 5001 connected with 193.205.77.9 port 51811
[ 13] local 193.205.76.9 port 5001 connected with 193.205.77.10 port 58075
[ ID] Interval Transfer Bandwidth
[ 5] 0.0-900.0 sec 9.96 GBytes 95.1 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-900.0 sec 9.67 GBytes 92.3 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 6] 0.0-900.0 sec 9.72 GBytes 92.7 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 7] 0.0-899.9 sec 9.37 GBytes 89.4 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 8] 0.0-900.0 sec 9.53 GBytes 91.0 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 9] 0.0-900.0 sec 9.72 GBytes 92.7 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 10] 0.0-899.9 sec 9.70 GBytes 92.6 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 11] 0.0-900.0 sec 9.55 GBytes 91.2 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 12] 0.0-899.9 sec 10.3 GBytes 98.0 Mbits/sec
[ ID] Interval Transfer Bandwidth
[ 13] 0.0-899.9 sec 10.4 GBytes 99.0 Mbits/sec