giovedì 29 marzo 2012

MIGRAZIONE DA FASE 1 DMVPN DI FASE 2/3 DELLA RETE

Chris mi ha mandato una domanda interessante che non ho coperto nessuno dei miei webinar DMVPN: "Come la migrazione di una parte di un DMVPN Phase-1 rete a una rete Phase-2 o Phase-3 se si può migrare solo uno ha parlato sito alla volta? Posso semplicemente aggiornare le razze che hanno bisogno parlato-to-spoke connettività? "
Mentre potrebbe essere teoricamente possibile avere un misto Phase-1/Phase-2 tunnel DMVPN (e ho appena potrebbe essere in grado di farlo funzionare in un laboratorio), una tale soluzione viola sicuramente il principio KISS .
Io preferirei creare una seconda fase-2/3 DMVPN tunnel sul router hub (s) e la migrazione ha parlato siti che necessitano di any-to-any connettività a questa nuova fase-2/3 tunnel DMVPN. Il nuovo tunnel sarà utilizzato in parallelo con quello vecchio, e si potrebbe mantenere entrambi in parallelo, o spegnere e togliere quello vecchio dopo che tutti i raggi sono stati migrati alla fase DMVPN 2/3.

Purtroppo non è possibile migrare raggi DMVPN negli allevamenti
È interessante notare che il secondo tunnel non diminuisce le prestazioni della rete. In uno studio di Fase-1 rete DMVPN tutto il traffico passa attraverso l'hub comunque, quindi non importa se si dispone di uno o più gallerie sul router hub - cambiare l'interfaccia del tunnel durante l'inoltro di un pacchetto IP non influire sulle prestazioni di inoltro.Creazione di un nuovo tunnel DMVPN sul router mozzo quindi non causa alcun cambiamento nelle prestazioni o flusso di traffico.
Fare attenzione se si sta utilizzando Cat 6500 come hub, nel qual caso si deve usare un trucco o due per assicurarsi tunnel avere diversi indirizzi IP dei trasporti in modo da non siete costretti a utilizzare i tasti GRE.
Potrebbe essere necessario due indirizzi IP dei trasporti tunnel in ogni caso se non si utilizzano i tasti GRE nella configurazione esistente.

martedì 27 marzo 2012

GUARDANDO NEL DATA CENTER DI ARCHIVIAZIONE MISTERI PROTOCOLLI

Se si utilizza FC, FCoE o iSCSI durante la distribuzione di nuovi attrezzi nel vostro centro dati esistente? Che dire distribuzioni Greenfield? Quali sono i criteri decisionali? In caso di saltare iSCSI e NFS uso se stai puntando alla virtualizzazione dei server con VMware? Ha ancora senso costruire rete separata iSCSI? Sono i jumbo frame utile? Cercheremo di rispondere a tutte queste domande e un po 'di più nel primo Data Center Symposium virtuale sponsorizzato da Cisco Systems.

Dovrebbe esserci canali del paesaggio Greenfield? Lo scopriremo!
L'equipaggio Omar riuniti per questo evento è fantastico - si sa Stephen Foskett è molto appassionato di stoccaggio, ci sarà mr. FCoE ( J Metz ) e mr. Grazie-ma-no-grazie ( Greg Ferro ) seduti nella stessa stanza ... e farò del mio meglio " essere un po 'Ivan "sui dettagli.
Il simposio virtuale verrà eseguito in una sessione live WebEx (leggi messaggio di Omar per i dettagli) che si può aderire senza alcun problema pre-registrazione - si ricorda di essere lì @ 9 AM Pacific Time il Martedì, 27 Marzo th . Sarete in grado di porre tutte le domande che volete e noi faremo del nostro meglio per rispondere.
Vorremmo anche di pre-raccogliere alcune domande del pubblico, per cominciare nella giusta direzione. Se c'è qualcosa che avreste sempre voluto chiedere sui protocolli di storage dei data center, scrivete un commento.

lunedì 26 marzo 2012

MPLS/VPN IN THE DATA CENTER? MAYBE NOT IN THE HYPERVISORS

Qualche tempo fa ho scritto che l' hypervisor venditori opportuno che venga attivato gli interruttori virtuali in PE-router . Sappiamo tutti che non succederà a causa delle obiezioni religiose, da chiunque pensa VLAN sono la cosa più grande che sia mai stato inventato e MP-BGP è il male puro, ma ci sono almeno due buone ragioni tecniche per cui mettere MPLS / VPN (come lo conosciamo oggi) in hypervisor potrebbe non essere la migliore idea nel data center di grandi dimensioni.
Vi ricordiamo che stiamo parlando di grandi data center. Se si dispone di poche centinaia di server fisici, bridging (sia con le VLAN o vCDNI) funzionano bene.
Questo post è stato innescato da una discussione interessante che ho avuto con Igor Gashinsky durante il Simposio OpenFlow . Igor, grazie per la vostra comprensione!
Breve riassunto dell'idea iniziale (si dovrebbe anche leggere il post originale blog ): hypervisor hosts dovrebbe diventare PE-router e utilizzare MP-BGP per propagare informazioni di raggiungibilità IP o MAC-address. Hypervisor padroni di casa di attuazione forwarding L3 potrebbe usare RFC 4364 (con percorsi di accoglienza per i VM), switch L2 hypervisor potrebbe usare BGP MPLS VPN basata su MAC .
Ed ecco le sfide:
Scalabilità . MPLS / VPN richiede un Label Switched Paths (LSP) tra PE-router. Questi percorsi possono essere segnalati con LDP, in cui percorsi di accoglienza di studio per tutti i router PE deve essere propagato in tutta la rete, o con MPLS-TE, nel qual caso si dispone di una rete completa (N-quadrato) di gallerie e modo troppo stato nel core della rete.
MPLS / VPN potrebbe anche usare IP o GRE trasporto + IP come definito nella RFC 4023 , nel qual caso è andato l'argomento scalabilità.

MPLS / VPN richiede spazio piatto indirizzo IP offre auto-similari
capacità di aggregazione (fonte: Wikipedia )
Consistenza finale di BGP . BGP è stato progettato per trasportare humongous quantità di informazioni di routing (Internet IPv4 tabella di routing ha più di 400000 rotte ), ma non è la bestia più veloce-convergente su questo pianeta, e non ha la consistenza delle transazioni. Questo potrebbe andare bene se sei agli inizi e lo spegnimento delle macchine virtuali (l'ammontare della variazione è limitata, e la consistenza finale non è importante per un VM passare attraverso il processo di avvio del sistema operativo), ma non se si sta spostando migliaia di loro in ordine di evacuazione rack programmati per la manutenzione.
Sommario : MPLS / VPN è stato progettato per un ambiente con un elevato numero di rotte e la quantità limitata di informazioni di routing zangola. I grandi data center che offrono " TCP nuvole "(perché alcuni pensano che potrebbe comportare l'alta disponibilità) potrebbe essere solo troppo dinamico per questo.

Non abbiamo ancora bisogno di MPLS / VPN nel Data Center?

Certo che facciamo, ma non nei hypervisor. In molti casi, dobbiamo fornire isolamento path alle applicazioni che non effettivamente bisogno di connettività L2 perché sono stati scritti da persone che hanno capito come funziona IP (esempio: si potrebbe voler mantenere i server di database MySQL rigidamente isolati dai server web).
Leggi le eccellenti post scritti da Derick Winkworth per vedere quanto si può spingere la MPLS / VPN o disegni VRF .
MPLS / VPN è una soluzione perfetta per quel problema ( facile Networking virtuale potrebbe anche funzionare), ma molti ingegneri usano ancora le VLAN (anche se la connettività L2 non è richiesta) e rischiare la stabilità della loro rete perché non si ha familiarità con MPLS / VPN o perché gli attrezzi che usano non lo supporta.

Il paragrafo finale al solito

Se sei un lettore di vecchia data, sai cosa succederà dopo: uno dei miei webinar descrivetipica impresa MPLS / VPN casi d'uso , un altro Data Center Technologies , e un terzo deiconcetti utilizzati nelle reti virtuali (e ha senso per ottenere l'accesso a tutti con l'abbonamento annuale ).
Infine, se hai bisogno di aiuto nella vostra MPLS / VPN disegni, prendono in considerazione la ExpertExpress - mi piacerebbe affrontare con un buon MPLS / VPN sfida progettuale o due.

... E se sei interessato a auto-referenziali argomenti, questo libro è una lettura obbligata

venerdì 23 marzo 2012

VIDEO: I REQUISITI DI RETE PER LA MOBILITÀ VM

Probabilmente siete stanchi di me scrivere e parlare di requisiti di rete per la mobilità VM (large segmenti VLAN che alcune persone vogliono estendere in tutto il mondo ), ma solo nel caso in cui si deve mostrare a qualcuno un breve riassunto, ecco un video di presa dail Data Center Fabric Architetture webinar.
Troverete anche la mobilità VM sfida descritto a vari gradi in Introduzione alla configurazione di rete virtuale , Dive Networking VMware profonda e Data Center Interconnessioni webinar.

mercoledì 21 marzo 2012

SCALABILE, VIRTUALIZZATO, DATA CENTER AUTOMATIZZATO

Matt Stone mi ha mandato una grande serie di domande sul emergenti Data Center Technologies (il titolo è anche il suo, non mio) insieme a un'osservazione interessante "sembra che c'è un sacco di reinventare la ruota in corso". Certo è - leggi l'articolo OpenFlow Doug Gourlay per una visione scettica insider . Ecco un bel bocconcino:
Quindi, ogni pochi anni il settore del networking inventa qualche nuovo termine il cui scopo primario è quello di galvanizzare il pensiero di IT acquirenti, dare loro un nuovo grido di battaglia per la generazione di bilancio, si spera guidare un po 'di aggiornamento della base installata in modo che noi gente del fornitore può rendere le nostre prenotazioni trimestre obiettivi.
Ma sto divagando, concentriamoci sulle questioni di Matt. Ecco le prime poche.
Sembra che quando si riducono le persone sono alla ricerca di un modo per automatizzare la configurazione di rete. (VM-aware ovviamente) in modo che un amministratore sia dal fornitore del servizio o locatario può fare pochi click e la rete fa quello che dovrebbe fare.
Assolutamente. Non sono solo più sicuri che si dovrebbe fare quei cambiamenti nei dispositivi di rete (spero che non sta riconfigurando la rete ogni volta che si aggiunge una nuova applicazione o un telefono IP nuovo). La soluzione finale dovrebbe essere un disaccoppiamento totale - di rete fornisce il trasporto IP e dei server virtualizzati ed elettrodomestici fare ciò che vogliono su di esso. Più ci penso e più sembra che abbiamo bisogno di qualcosa come il kernel / user space diviso in sistemi operativi, non un EVB-come raccordo sempre più stretto tra il core della rete e il bordo.
Non ho un problema con l'automazione a tutti, anzi penso che sarebbe geniale, ma perché non è chiunque tenti di attaccare questo problema semplicemente.
Fino a quando non rendere le reti virtuali in applicazioni in esecuzione su IP, l'automazione rimarrà un problema difficile. Voi sapete che ogni centro di progettazione di dati (o almeno il modo in cui è cablata insieme) è unico (che non significa necessariamente che è utile). Scrivere script di automazione, che potrebbero generare configurazioni di rete del dispositivo per la topologia sconosciuto è un esercizio difficile.
Stiamo facendo quello che Matt sta chiedendo con il nostro Flip-servizi IT : si aggiunge un nuovo utente o azienda e la nostra disposizione gli script gli switch e firewall, Cisco Call Manager (se l'utente ha un telefono IP), creare account utente in Windows AD, creare una nuova VM VDI per l'utente (e disco associato), installare il software in VDI VM, e poche altre cose.
Funziona così come lo fa perché stiamo saldamente il controllo della infrastruttura sottostante - non si può semplicemente uno schiaffo il nostro strumento di automazione sulla cima di un miscuglio di spaghetti di switch, firewall, bilanciatori di carico e server di fornitori diversi (perché Gartner ha detto si mescolano -and-match provvederà ridurre il TCO ) e aspettarsi che funzioni. Gli strumenti in grado di gestire ambienti multi-vendor, ma ci deve essere almeno qualche ordine nel caos.
Netconf permetterebbe di scrivere la corretta configurazione di uno switch dato un insieme di modifiche da un front-end. Questo non sembra sarebbe troppo difficile da attuare in una suite di gestione.
Netconf è solo un meccanismo di trasporto (RPC su SOAP o SSH) e un formato di codifica leggermente più conveniente (XML al posto del testo). Semplifica i dettagli di implementazione (non dovete scrivere aspettarsi script), ma non la parte più difficile del problema (configurazioni dei dispositivi di generazione).
Se la suite di gestione è a conoscenza di macchine virtuali, l'ACL è è stata assegnata ad una determinata interfaccia di VM / possibile seguire la VM dove va troppo.
Assolutamente, ma risolvendo il filtraggio dei pacchetti / firewall problema nello switch Tor è un approccio architettonico viziato. E 'un kludge che aggira la mancanza di funzionalità di VMware switch virtuale . È possibile applicare filtri di pacchetti direttamente alle interfacce VM se si usa Xen o KVM e utilizzare OpenFlow per scaricare i filtri per l'hypervisor padroni di casa se ​​la vostra distribuzione include Apri switch virtuale.Distribuzione XenServer comprende switch controller , un controller di OpenFlow per l'Open switch virtuale.
VMware sta risolvendo lo stesso problema con vShield Zones / app che ha prestazioni "leggermente" inferiore a quello del kernel basati su filtri di pacchetti , perché tutto il traffico VM deve viaggiare attraverso userland firewall.
Infine, è solo un passo da quello che NEC ha dimostrato finalmente Field Day Networking Tech ad una completamente automatizzata di configurazione di rete del data center che utilizza i dati vCenter per l'auto-provisioning VLAN necessarie VM. Quando vedremo uno strumento come questo? Chissà, potrebbe non essere abbastanza sexy per ottenere finanziamenti, anche se sarebbe estremamente utile per i clienti di fascia media (ma sonodi solito quelli ottenere ignorati dai fornitori ).

Maggiori informazioni

Ho parlato di questi argomenti in un recente podcast di CloudCast , e potete trovare maggiori dettagli nel mio virtualizzazione e data center webinar. E non dimenticare di controllare il ExpertExpress se si desidera ottenere un secondo parere sul vostro centro dati di progettazione.

lunedì 19 marzo 2012

MPLS / VPN NEL DATA CENTER? FORSE NON NEI HYPERVISOR

Qualche tempo fa ho scritto che l' hypervisor venditori opportuno che venga attivato gli interruttori virtuali in PE-router . Sappiamo tutti che non succederà a causa delle obiezioni religiose, da chiunque pensa VLAN sono la cosa più grande che sia mai stato inventato e MP-BGP è il male puro, ma ci sono almeno due buone ragioni tecniche per cui mettere MPLS / VPN (come lo conosciamo oggi) in hypervisor potrebbe non essere la migliore idea nel data center di grandi dimensioni.
Vi ricordiamo che stiamo parlando di grandi data center. Se si dispone di poche centinaia di server fisici, bridging (sia con le VLAN o vCDNI) funzionano bene.
Questo post è stato innescato da una discussione interessante che ho avuto con Igor Gashinsky durante il Simposio OpenFlow . Igor, grazie per la vostra comprensione!
Breve riassunto dell'idea iniziale (si dovrebbe anche leggere il post originale blog ): hypervisor hosts dovrebbe diventare PE-router e utilizzare MP-BGP per propagare informazioni di raggiungibilità IP o MAC-address. Hypervisor padroni di casa di attuazione forwarding L3 potrebbe usare RFC 4364 (con percorsi di accoglienza per i VM), switch L2 hypervisor potrebbe usare BGP MPLS VPN basata su MAC .
Ed ecco le sfide:
Scalabilità . MPLS / VPN richiede un Label Switched Paths (LSP) tra PE-router. Questi percorsi possono essere segnalati con LDP, in cui percorsi di accoglienza di studio per tutti i router PE deve essere propagato in tutta la rete, o con MPLS-TE, nel qual caso si dispone di una rete completa (N-quadrato) di gallerie e modo troppo stato nel core della rete.
MPLS / VPN potrebbe anche usare IP o GRE trasporto + IP come definito nella RFC 4023 , nel qual caso è andato l'argomento scalabilità.

MPLS / VPN richiede spazio piatto indirizzo IP offre auto-similari
capacità di aggregazione (fonte: Wikipedia )
Consistenza finale di BGP . BGP è stato progettato per trasportare humongous quantità di informazioni di routing (Internet IPv4 tabella di routing ha più di 400000 rotte ), ma non è la bestia più veloce-convergente su questo pianeta, e non ha la consistenza delle transazioni. Questo potrebbe andare bene se sei agli inizi e lo spegnimento delle macchine virtuali (l'ammontare della variazione è limitata, e la consistenza finale non è importante per un VM passare attraverso il processo di avvio del sistema operativo), ma non se si sta spostando migliaia di loro in ordine di evacuazione rack programmati per la manutenzione.
Sommario : MPLS / VPN è stato progettato per un ambiente con un elevato numero di rotte e la quantità limitata di informazioni di routing zangola. I grandi data center che offrono " TCP nuvole "(perché alcuni pensano che potrebbe comportare l'alta disponibilità) potrebbe essere solo troppo dinamico per questo.

Non abbiamo ancora bisogno di MPLS / VPN nel Data Center?

Certo che facciamo, ma non nei hypervisor. In molti casi, dobbiamo fornire isolamento percorso per le applicazioni che in realtà non necessitano di connettività L2 perché sono stati scritti da persone che hanno capito come funziona l'IP (esempio: si potrebbe voler mantenere i server di database MySQL rigorosamente isolati da server web).
Leggi le eccellenti post scritti da Derick Winkworth per vedere quanto si può spingere la MPLS / VPN o disegni VRF .
MPLS / VPN è una soluzione perfetta per quel problema ( facile Networking virtualepotrebbe anche funzionare), ma molti ingegneri usano ancora le VLAN (anche se la connettività L2 non è richiesta) e rischiare la stabilità della loro rete perché non si ha familiarità con MPLS / VPN o perché gli attrezzi che usano non lo supporta.

Il paragrafo finale al solito

Se sei un lettore di vecchia data, sai cosa succederà dopo: uno dei miei webinar descrive tipica impresa MPLS / VPN casi d'uso , un altro Data Center Technologies , e un terzo dei concetti utilizzati nelle reti virtuali (e ha senso per ottenere l'accesso a tutti con l'abbonamento annuale ).
Infine, se hai bisogno di aiuto nella vostra MPLS / VPN disegni, prendono in considerazione la ExpertExpress - mi piacerebbe affrontare con un buon MPLS / VPN sfida progettuale o due.

... E se sei interessato a auto-referenziali argomenti, questo libro è una lettura obbligata

mercoledì 14 marzo 2012

CONOSCENZA E COMPLESSITÀ

In quasi ogni campo della IT un sacco di persone cercano di fare il loro lavoro basandosi su zio Google ei suoi amici (i blogger, forum maghi e altri produttori di contenuti) e cut-and-paste soluzioni trovate sul web nei loro programmi, server o dispositivi configurazioni. Ecco perché la mia teoria che potrebbe essere il caso, non esitate ad abbatterlo in fiamme.
Quando si inizia una tecnologia che fuoriesce dai laboratori e tavole di disegno, è necessario conoscere molto da fare niente. Ricordate i vecchi tempi con il software Cisco non ha nemmeno il prompt quando si è entrati nella modalità di configurazione, per non aiuto solo contestuale? Si doveva capire IP subnetting per costruire la vostra rete (perché i router sono stati gestiti tramite IP), anche se tutto quello che volevi fare era correre IPX o AppleTalk ... e non c'era niente su Internet, perché abbiamo appena iniziato a costruirlo. In breve, si doveva sapere molto per ottenere anche il più semplice dei compiti eseguiti.
Confronto che, per quello che abbiamo oggi - (spesso un po 'inutile) GUI strumenti per le persone che si abbia paura del CLI, wizard di configurazione, e tonnellate di suggerimenti potenzialmente rilevanti e consigli su Internet (alcuni di essi inapplicabile alla vostra situazione, alcuni dei loro semplicemente sbagliato). Si può sopravvivere per un po 'senza neanche leggere il manuale fornito con l'apparecchio, ed eseguire una rete di dimensioni ragionevoli SMB senza mai capire quello che stai facendo ... fino a quando si blocca tutto.
Non voglio iniziare un altro GUI-versus-CLI dibattito. GUI sono grandi in alcuni ambienti e per alcuni casi d'uso, e la rappresentazione grafica di argomenti complessi è quasi sempre meglio di uno solo testo. Inoltre vi darà un falso senso di semplicità - nascondono la complessità di ciò che state cercando di fare, e pensi che stai facendo bene fino a quando le loro pause di astrazione di livello basso.
Se devi tracciare le conoscenze necessarie rispetto complessità del lavoro su un grafico, si sarebbe probabilmente ottenere qualcosa di simile a questa:
Si noti ho aggiunto una terza linea orizzontale: il limite "ho abbastanza". Ai vecchi tempi, si potrebbe rinunciare e tornare a qualsiasi altra cosa che stavano facendo o si può lottare davvero difficile padroneggiare la tecnologia, e quindi capire almeno un po 'di quello che stavano facendo. L '"io ​​sono abbastanza" linea è stata davvero "Mi arrendo" one.
Per tracciare un parallelo dal non-IT mondo: 100 anni fa tutti erano in grado di risolvere la propria auto, perché dovevano sapere come farlo (o potrebbero rimanere bloccati in mezzo al nulla). Si sia trascorso del tempo per capire come riparare la propria auto o non si è andare in giro in essa (o almeno non per molto).
Con una tecnologia matura, si possono ottenere abbastanza lontano e trovare un lavoro abbastanza complesso, senza mai capire quello che stai facendo e perché funziona. L '"io ​​sono abbastanza" la linea diventa "Lo so abbastanza". Tornando all'esempio auto: io sono positivi maggior parte dei piloti oggi (e un bel po 'meccanica pochi si affidano esclusivamente vendor fornito macchine per la risoluzione dei problemi) non hanno idea di come funziona il motore a combustione interna, e non hanno bisogno di questa conoscenza per guidare intorno.
Va bene finché siete a conoscenza c'è un bel po 'che ti manca e sai che hai bisogno di uno specialista per risolvere i problemi ... e questo è dove il che-è-come-cars analogia si rompe. In IT, tutti (e il loro cane) tende ad avere opinioni su tutte le altre parti di esso (molto spesso tendono ad essere sbagliato, e di solito sottovaluta la complessità), e risolviamo la mancanza-di-conoscenza con "saggezza" come "tenta di ricaricare il box" e "facciamo solo riformattare il disco rigido." Questo approccio potrebbe funzionare in una certa misura, ma è un po 'difficile (e vuole un po') a riformattare la vostra rete, e ricarico un router o uno switch non sempre funziona se si incasinato la configurazione e salvato le modifiche.

Come è rilevante?

Se sei un ingegnere junior appena entrati in rete bisogna essere consapevoli che c'è un sacco di complessità nascosta dietro le quinte. Sta a voi decidere se si desidera andare il miglio supplementare e di investire il vostro tempo per passare da cominciare a conoscenza con la tecnologia (che rimane un conducente medio auto) per eccellere in essa (diventando un mago che è in grado di mettere a punto o addirittura progettare un motore di un'auto da corsa) ... ma se si decide di rimanere al di sotto del "non ho bisogno di più" la linea, non stupitevi se il vostro lavoro viene automatizzata in un futuro non troppo lontano.
Questo post probabilmente non sarebbero mai state pubblicate senza un feedback costruttivo da Tony Bourke, Matthew Norwood, Ethan Banks, Jeff Fry e Marko Milivojević. Grazie un milione!

martedì 13 marzo 2012

GRUMPY LUNEDI: HP E OPENFLOW

HP ha recentemente rilasciato il supporto OpenFlow su un switch in più e alcune persone pensano che sia un grosso problema . E potrebbe essere solo se sei un ricercatore con un budget limitato contributo (che sembra essere uno dei più importanti casi d'uso OpenFlow oggi), per tutti gli altri, si tratta di un meh. In mancanza di un regolatore di livello commerciale OpenFlow supportato da HP (o almeno testato con switch HP), OpenFlow sugli switch HP resta un giocattolo nuovo fiammante.
Voi sapete che OpenFlow protocollo prevede altro che un modo standardizzato per programmare piano di inoltro di un dispositivo con un telecomando . Quando si distribuisce OpenFlow, si sposta l'intelligenza di rete da switch controller. Questa è sicuramente una proposta fastidioso se si è investito molto nel software embedded, come Cisco ha, comunque la si guardi, OpenFlow l'abilitazione gli switch solo per il gusto di avere OpenFlow muti API inevitabili li nel lungo periodo.
Offrendo OpenFlow abilitati interruttori probabilmente sensato tre categorie di fornitori:
  • I fornitori che si distinguono in produzione a basso costo basata sul silicio mercantili.Questi fornitori potrebbe voler evitare di R & D costi associati allo sviluppo di software appropriato interruttore, offrono OpenFlow interfaccia, e sperare che qualcun altro si svilupperà il controller;
  • I fornitori che vogliono distruggere il paesaggio e l'uso OpenFlow per offrire nuovi controller-based funzionalità che non possono essere implementati con protocolli standard. NEC e BigSwitch rientrano chiaramente in questa categoria.
  • I produttori che combinano OpenFlow con altre tecnologie in modi interessanti e innovative . Ad esempio, Juniper utilizza OpenFlow per spingere il traffico in gallerie o di ingegneria del traffico VRF.
HP? Nessuno dei precedenti. Essi sostengono che sono stati a lavorare sulla tecnologia OpenFlow per anni, ma quando ne parla, usano di base open-source controller per dimostrare i presunti benefici di OpenFlow (come hanno fatto durante l'evento PLNOG recente, dove il presentatore ha cercato di demo HP passa a lavorare con NOX controller). Questo è un approccio estremamente deludente proveniente da una società che ha creato una rete di riferimento di gestione e ha ancora un'offerta molto buona in questo spazio .
Così, quando HP lancia un controller con funzionalità OpenFlow non si può ottenere tutto il resto (o almeno con la funzionalità non è possibile ottenere dai dispositivi di rete esistenti e protocolli), per favore fatemelo sapere. Nel frattempo, rilasciando supporto OpenFlow su un altro low-cost interruttore suona come parola d'ordine-surf o residuali-value-estrazione strategia per me.

lunedì 12 marzo 2012

OPENFLOW: UNO STRUMENTO PERFETTO PER CREARE SMB DATA CENTER

Quando stavo scrivendo il + NEC IBM OpenFlow prove , ho capito un caso perfetto uso per OpenFlow controllata inoltro di rete: SMB data center che necessitano di meno di qualche centinaio di server fisici - che si tratti bare-metal hypervisor server o host (cappello Suggerimento Per Brad Hedlund per me spingendo nella giusta direzione, qualche tempo fa)
Come ho scritto prima, l'inoltro della rete OpenFlow controllato (ad esempio: NEC, BigSwitch) sperimenta una serie completamente diversa di problemi di OpenFlow controllato bordo (esempio: Nicira o switch virtuale XenServer controller ).

Il Sogno

Come potete immaginare, è estremamente semplice da configurare un OpenFlow interruttore controllato: configurare il proprio indirizzo IP, la gestione VLAN, e l'indirizzo IP del controller, e lasciare che il controllore faccia il resto.
Una volta che i fornitori di networking capire "i dettagli", si potrebbe utilizzare le porte dedicate per la gestione out-of-band OpenFlow piano di controllo (simile a quello cheQFabric sta facendo oggi ), DHCP per assegnare un indirizzo IP allo switch, e un nuovo DHCP opzione per raccontare l'interruttore quando la verifica sia. Il server DHCP ovviamente eseguito sul controller OpenFlow, e l'intera infrastruttura di controllo aereo sarebbe completamente isolato dal mondo esterno, il che rende abbastanza sicuro.
Il costo hardware aggiuntivo per la complessità significativamente ridotto (no-switch per la configurazione e una gestione unica / indirizzo IP SNMP): due interruttori stupide 1GE (per rendere la configurazione ridondante), si spera in esecuzione MLAG (per sbarazzarsi di STP).
Infine, supponendo che la virtualizzazione dei server è il caso d'uso più comune in un centro dati SMB, si potrebbe ben couple OpenFlow controller con vCenter di VMware, e lasciare che vCenter configurare l'intera rete:
  • CDP o LLDP sarebbero stati utilizzati per scoprire server-to-switch connettività;
  • OpenFlow regolatore sarebbe automaticamente scaricare informazioni sul gruppo porta da vCenter e automaticamente VLAN fornitura di server-to-switch link.
  • Andando un ulteriore passo in avanti, OpenFlow controllore potrebbe configurare automaticamente i canali delle porte statiche in base alle impostazioni di bilanciamento del carico configurate sui gruppi portuali.
Risultato finale : decentemente grande network layer-2 senza STP, multipathing automatico e regolazione automatica ai cambiamenti VLAN, con un'unica interfaccia di gestione, e il numero minimo di parti in movimento. Non è fantastico?

Auto-configurazione del data center senza spanning tree? Certo, perché no ( Relativity da MCEscher )

Scenario # 1 - GE-attached server

Se si decide di utilizzare GE-attached server ed eseguire macchine virtuali su di essi, sarebbe saggio usare da quattro a sei uplink per hypervisor host (due per i dati VM, due per le attività del kernel, eventualmente ulteriori due per traffico di storage iSCSI e NFS ).
Si potrebbe facilmente costruire un tessuto GE Clos utilizzando switch da NEC America:PF5240 (switch ToR) come nodi foglia (che avresti avuto quasi nessun oversubscription con 48 porte GE e 4 x 10GE ​​uplink) e PF5820 (10 interruttore GE) come colonna vertebrale nodi e punto di interconnessione con il resto della rete.
Utilizzando solo due PF5820 interruttori della colonna vertebrale si potrebbe ottenere più di 1200 le porte del server 1GE, sufficiente per connettersi da 200 a 300 server (circa 5000 VM).
Che ci si vuole mantenere il numero di switch controllata mediante il controllore OpenFlow basso per evitare problemi di scalabilità. NEC afferma che può controllare fino a 50 switch Tor con un gruppo di controllo; sarei un po 'più conservatore.

Scenario # 2 - 10GE server collegati

Le cose diventano peloso, se si desidera utilizzare 10GE-attached server (o, per dirla più diplomaticamente, IBM e NEC non sono ancora pronti a gestire questo caso d'uso):
  • Se si desidera vera stoccaggio a convergere con DCB, è necessario utilizzare IBM switch (NEC non ha DCB), e anche allora non sono sicuro di come avrebbe funzionato con DCB OpenFlow.
  • PF5820 (NEC) e G8264 (IBM) hanno uplink 40GE, ma devo ancora vedere un OpenFlow abilitato interruttore 40GE con densità di porte sufficiente a servire come nodo colonna vertebrale. Al momento, sembra che fasci di uplink 10GE sono la strada da percorrere.
  • Sembra che (secondo le schede tecniche, ma potrei sbagliarmi) NEC supporta 8-way multipathing, e avremmo bisogno di almeno 16-way multipathing per ottenere oversubscription 3:1.
In ogni caso, assumendo tutti i dossi eventualmente fatevi risolti, si potrebbe avere una rete molto facile da gestire il collegamento a poche centinaia di 10GE-attached server.

Sarà mai accadere?

Rimango scettico, soprattutto perché ogni vendor sembra ossessionato cloud computing e zettascale data center, ignorando metà scala del mercato ... ma ci potrebbe essere per nuocere. Questa idea avrebbe più senso se saresti in grado di acquistare un centro preconfezionato di dati (si pensi blocco VCE) a un prezzo ragionevolmente basso (per rendere più attraente per i clienti SMB).
Alcune aziende hanno tutti i componenti di uno avrebbe bisogno di un centro dati SMB (Dell, HP, IBM), e Dell potrebbe essere solo in grado di tirare fuori (mentre HP sta dicendo a tutti come faranno cambiare per sempre il settore del networking ). E ora che ho citato Dell: come sulla configurazione del data center attraverso una interfaccia user-friendly web, e lo hanno spedito alla vostra posizione in poche settimane.

giovedì 8 marzo 2012

NON ABBIAMO BISOGNO DI DHCPV6 RIDONDANZA RELAY?

Invece di bere birra e vodka test in laboratorio durante la festa mi sono divertito PLNOG DHCPv6 discussioni con Tomasz Mrugalski, il "maestro-of-last-resort" per la ISC server DHCPv6 . Ho detto il mio preferito DHCPv6 problema relè (relè di ridondanza) e mentre ci siamo subito d'accordo che ho ragione (dal punto di vista accademico), ha portato una domanda interessante - è davvero un problema di funzionamento?

Alcuni intro prima

Ho scritto su DHCPv6 stabulazione prima, ma cerchiamo di rivedere come funziona:
  1. CPE invia DHCPv6 sollecitare messaggio a capire chi è il server DHCPv6 è;
  2. PE inoltra il messaggio verso il server DHCPv6 (DHCPv6 inoltro non è un semplice inoltro dei pacchetti, DHCPv6 relè avvolge il messaggio originale in una nuova busta);
  3. DHCPv6 server risponde con la pubblicità messaggio che viene inoltrato al CPE dal PE-router;
  4. CPE potrebbe ottenere più inseriere messaggi e seleziona una delle potenziali DHCPv6 server;
  5. CPE invia DHCPv6 richiesta di messaggio con IA-PD opzione al PE-router.
  6. PE-router inoltra il messaggio al server DHCPv6.
  7. DHCPv6 server alloca un prefisso al router CPE e restituisce il prefisso nel DHCPv6risposta messaggio.
  8. PE-router riceve la risposta messaggio;
  9. PE-router installa una route statica per il prefisso delegato che punta verso il CPE-router;
  10. PE-router inoltra la DHCPv6 risposta messaggio al CPE;
  11. CPE inizia a utilizzare il prefisso delegato a rispondere alle sue interfacce.
Una breve descrizione del processo (in realtà, solo la seconda metà di esso) è illustrato nello schema seguente:

L'inoltro nelle reti ridondante Designed

Ora immagina di avere un passato layer-2 l'accesso alla rete e due PE-router collegato ad esso per motivi di ridondanza.
Questa non è una buona idea - il primo hop interruttore nella rete del service provider dovrebbe essere un layer-3 dispositivo per motivi di sicurezza .
Il router CPE continua a inviare un unico sollecitare il messaggio, ma ogni PE-router relè che al server DHCPv6. DHCPv6 server invierà indietro di due inseriere messaggi, entrambi vengono trasmesse al router CPE (ogni PE-router si farà latore della risposta alla sua trasmesso sollecitare messaggio), e il router CPE sceglierà uno o l'altro.
Il router CPE invia successivamente un DHCPv6 richiesta messaggio selezionato PE-router (che funge da relay), ottiene finalmente torna il prefisso delegato, e il PE-router ha una route statica ... ma l'altro PE-router non è a conoscenza di ciò che è in corso.

Il problema

Uno dei problemi è evidente - si potrebbe ottenere il routing ottimale, perché uno dei PE-router manca di percorsi verso la destinazione (s) con next hop in rete di accesso collegato direttamente ... ma si può risolvere che con protocolli di routing che supportano terzi prossima luppolo.
Tuttavia, le cose andare molto peggio se uno dei PE-router si blocca. Le route statiche vengono persi (che può essere recuperato con il meccanismo LEASE BULK una volta che il PE-router completa la ricarica ), ma nel frattempo i dispositivi CPE servita da PE-router che non hanno connettività, anche se si dispone di una rete di accesso completamente ridondante .

martedì 6 marzo 2012

NON DIMENTICARE DI FISSARE IL PIANO DI GESTIONE IPV6

Una delle poche presentazioni ho potuto capire @ PLNOG riunione di ieri (la maggior parte di loro erano in polacco) è stato il fantastico " guida per costruire infrastrutture di rete sicure "di Merike Kaeo , durante il quale ha rivelato un fatto ovvio ma spesso dimenticato: dalla distribuzione di IPv6 in il router, hai effettivamente creato una voce parallela sul piano di gestione che deve essere assicurato utilizzando le stesse (o simili) meccanismi come la sua controparte IPv4.
Per esempio, la gente avrebbe usano comunemente access-class riga di comando di configurazione sulle linee VTY per limitare l'accesso ai vostri router agli indirizzi IP noti per appartenere alla subnet NMS. A meno che non fare la stessa cosa per IPv6 (con l' ipv6 access-class da riga di comando di configurazione), chiunque può connettersi al router non appena si configura IPv6 su di esso.
Lo stesso vale ovviamente per tutti gli altri la gestione-plane protocolli che possono essere eseguiti in dual-stack ambienti (ad esempio, SNMP) - ogni volta che si utilizza ACL per limitare l'accesso al piano di gestione di un dispositivo, è necessario distribuire i filtri sia per IPv4 e IPv6.

lunedì 5 marzo 2012

Cisco e NBA All-Star Weekend - rimodellando l'esperienza del ventilatore

Ho avuto una grande esperienza lo scorso fine settimana presso la All-Star Weekend NBA a Orlando, FL. L'evento comprendeva la Summit NBA Tech il Venerdì, dove un panel di aziende leader del settore nello sport, dei media e della tecnologia ha parlato delle tendenze attuali, ciò che il futuro sarà simile e come i clienti stanno guidando l'innovazione attraverso l'utilizzo della tecnologia. Per non parlare del Concorso Slam Dunk il Sabato e la Competitive All-Star Game di Domenica ... forse la più competitiva mai! Non capita tutti i giorni si vede un dual tra Dwayne Wade e Kobe Bryant che si traduce in un naso rotto.
Check out my riassunto video qui sotto per saperne di più sugli eventi che si sono svolti e imparare l'uso del NBA di Cisco Connected Stadium Wi-Fi ha permesso ai partecipanti di rimanere in contatto sui propri dispositivi mobili in ogni momento emozionante in questo fine settimana aveva da offrire.
La tecnologia sta trasformando l'esperienza della ventola e la All-Star Weekend NBA era ottimo esempio di quanto sia importante la rete è quello di gestire un evento che tocca milioni di persone in tutto il mondo. La tecnologia ha permesso alla NBA di collaborare in modo più efficiente e tenere premuto uno dei loro principali eventi su un palcoscenico mondiale.
Per uno sguardo più da vicino le discussioni del vertice Tech NBA da uno dei relatori, controlla gli ultimi messaggi Suraj Shetty - Contenuto multimediale e la NBA - A Slam Dunk .

giovedì 1 marzo 2012

Social Match: Cisco Social Media Program "Incontri"

Alla Cisco, vediamo i benefici a lungo termine di usare i social media per connettersi con i fan e potenziare gli sforzi di lavoro dei dipendenti. Il Global Social Media Marketing squadra ha sperimentato con un certo numero di modi diversi di guidare social adozione di mezzi internamente. Un esempio include premiare e riconoscere le PMI (esperti in materia), che presenterà uso esemplare dei social media (se siete interessati a leggere le nostre piccole e medie imprese di recente premiati, come la nuova " Meet nostre PMI serie "blog).
Un approccio innovativo ad approvare Social Media Usa
D'altra parte, ci piacerebbe anche avere i nostri dipendenti in modo proattivo guidare questo processo avente le PMI offrono la loro conoscenza dei social media per il social media manager che potrebbero aver bisogno di aiuto una PMI, con una varietà di progetti diversi.Così come abbiamo fatto fare per l'esecuzione di questa iniziativa?
Abbiamo deciso di prendere in prestito una tecnica di siti di dating online per mescolare e abbinare gli individui in base alle loro esigenze, capacità e interessi comuni, creando così il "Programma Social Match." 
C'erano un paio di obiettivi principali a questo programma. Oltre a fornire manager del sociale con l'assistenza a breve termine di cui avevano bisogno, abbiamo anche voluto offrire nuove opportunità per le nostre PMI di partecipare in modo che possano ottenere ulteriore esposizione e diventare più abili a utilizzando le loro competenze sociali dei media. Questo finirebbe per tradursi in una situazione win-win per entrambe le parti.
Uno sguardo più da vicino le Meccanica del Programma
Come funziona? Questa combinazione vincente comprende pochi ingredienti chiave: ". Matchmaker" due forme semplici online e una la partecipazione delle PMI Apri modulo è costituito da una serie di domande che le PMI possono volontariamente compilare le loro aree di competenza e di interessi, dopo di che sarebbe automaticamente aggiunto al nostro database. Sul flipside, manager del sociale possono presentare un modulo di richiesta per le PMI quando vogliono chiedere aiuto una PMI con una certa possibilità di social media (per esempio, eventi, lanci, campagne, e altro ancora). Alla ricezione di una presentazione Request Form PMI, il nostro team agisce come "la sensale di matrimoni" di lavorare la nostra magia a identificare e collegare manager del sociale con le PMI appropriati.
Successi programma alla data
Anche se il programma ha ancora molti miglioramenti da fare, ha raccolto molto interesse iniziale e un feedback positivo da parte dei dipendenti. In soli due mesi dal suo lancio alla fine dello scorso anno, diverse centinaia di piccole e medie imprese hanno volontariamente di aderire al database, che rappresenta una pletora di diverse funzioni aziendali e segmenti di mercato. Inoltre, il programma ha supervisionato 8 progetti totali Incontro sociali finora con 4 progetti attualmente in corso.
Per il futuro, speriamo che la partita sociale può continuare ad assistere i manager del sociale e le PMI di ottenere il massimo dalle loro occupazioni social media mentre i dipendenti che aiutano a trovare altri con una passione comune per i social media.
Tags: best practice e innovative , le PMI e programma della partita sociale , i social media e social media manager e esperti in materia