mercoledì 16 maggio 2012

BROCADE FABRIC VCS


Appena prima di Day Networking campo , l'allegra banda di geek sedette con rame Chip, Solutioneer Brocade (a titolo di lavoro quasi come Herder Packet) per discutere i dettagli intricati di tessuto VCS. I video sono ben guardare vale la pena - i dettagli tecnici sono interessanti, ma soprattutto, Chip è un narratore fantastico.
L'evento è stato diviso in quattro parti:
Che cosa è un tessuto Ethernet? - una grande spiegazione di vista di Brocade di ciò che un Data Center tessuto dovrebbe essere, reso ancora migliore da storie falò chip.
Converged Networking e Storage - ho saltato questo, c'è solo tanta FCoE posso prendere e abbiamo avuto una mezza giornata di discussione FCoE con Cisco Omar Sultan J Metz e un giorno prima.
Multi-Path vs Multi-Chassis - discussione bella layer-2 multipathing, Brocade inter-switch collegamenti e bilanciamento del carico , e gli impatti di non simmetrica connettività di rete sul flusso del traffico.
Nuclei duri e bordi morbidi - tenuto conto delle realtà del semplicistica hypervisor soft switch , Migrazione automatica dei profili di Brocade Port (AMPP) permette ai nostri ingegneri di rete un toolbox interessante che potrebbe rendere la loro vita più facile.Chip ha fatto un lavoro fantastico AMPP spiegare come funziona.

Maggiori informazioni

Se avete bisogno di saperne di più data center o di virtualizzazione di rete:
  • Iniziare con Introduzione alla configurazione di rete virtualizzata ;
  • Scopri generiche tecnologie di data center e disegni in Data Center 3.0 per Ingegnere Networking , tecnologie data center fabric di dati Architetture center fabric , e i grandi progetti in Clos Tessuti spiegato webinar.
  • Immergiti in profondità nei misteri della switch virtuale VMware e altri VMware correlate soluzioni di networking con il Dive Networking VMware profonda .

martedì 15 maggio 2012

VOTA NHRP LIMITING PUÒ DANNEGGIARE LA VOSTRA RETE DMVPN


NHRP-based controllo statale l'interfaccia è una funzione fantastica che è possibile utilizzare per una più rapida convergenza delle reti DMVPN molto grandi (come spiegato nel DMVPN Designs webinar, è possibile utilizzarlo anche per risolvere alcuni interessanti scenari di backup). L'abbiamo testato in una rete con oltre 1000 (utilizzando raggi ASR1K come router hub) con timeout di registrazione molto brevi, e l'utilizzo della CPU del processo NHRP raramente hanno superato una piccola percentuale.
Tuttavia, l'ingegnere a fare le prove dimenticato di dirmi un po 'cruciale del puzzle - ha dovuto modificare il tasso di NHRP limitante (configurato con ip NHRP max-inviare il comando). Questa omissione è stata graziosamente sottolineato da George Mihalachioaie che sono imbattuto lo stesso problema durante la sua implementazione DMVPN.
Sommario: Avere timeout breve registrazione in grandi reti NHRP non è un problema per-sé (e NHRP-based controllo statale interfaccia può semplificare notevolmente il design), ma bisogna sapere cosa si sta facendo, e cambiare le impostazioni predefinite.Le linee guida di utilizzo fornite con il max-ip NHRP inviare il comando dovrebbe darvi informazioni più che sufficienti ... e non dimenticate che le risposte NHRP (non solo richieste) contare anche sotto forma di pacchetti NHRP.


martedì 8 maggio 2012

DOES MATTER OTTIMALE FORWARDING L3 IN DATA CENTER?


Ogni rete dati centro ha una miscela di ponte (layer-2 o MAC basato inoltro, commutazione alias) e instradamento (strato-3 o basata su IP inoltro), la combinazione esatta, la dimensione dei domini L2, e la posizione di L2 / confine L3 dipendono pesantemente sul carico di lavoro ... e mi piacerebbe davvero capire che cosa funziona per voi nel vostro centro dati, si prega di lasciare un feedback più possibile nei commenti.

Informazioni di base

Considerando il confine L2/L3 in una rete di data center, è possibile trovare due estremi:
I data center che eseguono un singolo scala-out applicazione , sia che si tratti di dati (calcoli di grandi cluster Hadoop, per esempio) o portali web. Indirizzamento IP e sottoreti di solito non importa (a meno che usano trucchi strani che si basano su L2), e la trasmissione L3 di solito inizia al top-of-rack switch.
Cloud data center che utilizzano MAC-over-IP encapsulations per implementare i segmenti di rete virtuali sono anche in questa categoria.
Completamente data center virtualizzati bisogno di grande dominio L2 per sostenere la mobilità VM; VLAN si estendono attraverso l'aggregazione / core switch (o gli interruttori della colonna vertebrale se si utilizzano tessuti Clos terminologia).
I data center di grandi dimensioni con domini L2 L3 di solito uso il forwarding solo negli switch core, questi switch sono SVI (o RVI, a seconda di quale fornitore stai parlando con) interfacce VLAN, e gli indirizzi IP configurati su VLAN. Maggior parte dei fornitori hanno tecnologie che combinano multi-chassis aggregazione di link con active-active forwarding (tutti i membri di un indirizzo IP MLAG parti del cluster ed eseguire l'inoltro L3 tra VLAN connesse).

Il problema

Inoltro L2 negli switch L3 Tor e inoltro nel nucleo centrale i dati della rete si traduce chiaramente in flusso di traffico ottimale. Se si dispone di server (o VM) in VLAN differenti collegati allo stesso switch TOR, il traffico tra loro deve essere hairpinned tramite la più vicina interruttore L3. Tuttavia, la questione che sto lottando con è: " oes importaveramente? "
Nella maggior parte dei casi, devi usare VLAN in un ambiente virtualizzato per implementare diverse aree di protezione in uno stack di applicazioni, e installare firewall o di bilanciamento del carico tra di loro. Se fate tutto il forwarding L3 con bilanciamento del carico o di firewall, non hai bisogno di switch L3, e quindi il problema della non ottimale trasmissione L3 diventa discutibile.

Commenti molto apprezzata!

Come ho scritto nel paragrafo introduttivo, mi piacerebbe davvero capire cosa si sta facendo (in particolare in ambienti che utilizzano macchine virtuali con le VLAN di grandi dimensioni). Si prega di condividere quanto più possibile nei commenti, tra cui:
  • Non si utilizza l'inoltro L3 su switch di data center;
  • Dove si distribuisce L3 di commutazione (Tor / foglia, aggregazione, core / colonna vertebrale);
  • Perché si utilizza l'inoltro L3 insieme a (o al posto di), bilanciatori di carico e / o firewall;
  • Vedete subottimale inoltro L3 come un problema serio?
Grazie!