mercoledì 28 novembre 2012

VM A LIVELLO DI MULTICAST IP SU VXLAN


Ho sempre confondersi quando si parla di traffico IP multicast su tunnel VXLAN.Poiché VXLAN utilizza già un gruppo multicast per livello 2 inondazioni, credo che tutti i VTEPs avrebbe dovuto ricevere il traffico multicast da una macchina virtuale, come appare come L2 multicast. Mi sto perdendo qualcosa?
Risposta breve: no, hai assolutamente ragione. Multicast IP su VXLAN è chiaramente non ottimale.
Nei bei vecchi tempi quando l'hypervisor switch sono stati veramente stupidi e utilizzati semplici VLAN basata su layer-2 switching, si poteva controllare la propagazione di traffico multicast IP per la distribuzione di snooping IGMP sul layer-2 interruttori (o, se si ha Nexus 1000V, è possibile configurare snooping IGMP direttamente sul hypervisor switch).
Quei giorni sono passati (finalmente), ma il nuovo mondo non dispone ancora di alcune caratteristiche. Nessun interruttori ToR sono attualmente in grado di scavare nel payload VXLAN per trovare le query IGMP e si unisce, ed è lecito chiedersi se Nexus 1000V può fare snooping IGMP su VXLAN (snooping IGMP su Nexus 1000V è configurato su VLAN).
Risultato finale : multicast IP in esecuzione su un segmento VXLAN verrà consegnato a tutte le macchine virtuali nello stesso segmento. Entrambi hypervisor interruttori e VM volontà di trascorrere hanno cicli di CPU per elaborare indesiderati pacchetti multicast.


martedì 6 novembre 2012

ATTENZIONE AL PRE-BESTPATH COSTO ESTESO BGP COMUNITÀ


Uno dei miei lettori mi ha mandato un interessante problema di pochi giorni fa: il processo BGP in esecuzione su un PE-router nel suo MPLS / VPN network preferito un percorso iBGP ricevuto da un altro PE-router ad un percorso di provenienza locale (ma per il resto identici). Quando ho guardato la stampa dettagliata, ho notato qualcosa di "interessante" - la pre-bestpath costo esteso BGP comunità.
PE2 # sh ip bgp vpnv4 VRF XXX 0.0.0.0
 routing BGP ingresso tavolo per 172.16.1.105:0:0.0.0.0 / 0, versione 159.367 Sentieri: (2 disponibili, migliore # 1, tabella XXX)    locale, il percorso importato da 100: 0:0.0.0.0 / 0      172.16.1.104 (metrico 11) da 172.16.1.104 (172.16.1.104)        Origine incompleta, metrica 0, localpref 100, valida, interna, meglio        avanzata Community: RT: 100:0 Costo: pre-bestpath : 129:25600 0x8800: 0:0          0x8801: 100:0 0x8802: 0x8803 65280:25600: 65281:1500          0x8804: 0x8805 1936:184188929: 09:00 0x8806: 0:184188929





 


       etichette MPLS in / out nolabel/372
   Locale 
     10.251.0.130 da 0.0.0.0 (172.16.1.105) 
       Origine incompleta, 0 metrica, localpref 100, peso 32768, valido, di provenienza 
       comunitaria estesa: RT: 100:0
La comunità costo BGP modifica il processo di percorso BGP di selezione : se la comunità costo ha ABSOLUTE_VALUE (visualizzato come pre-bestpath) punto di inserimento, è considerato prima di "standard" attributi percorso di selezione BGP (sì, è più forte di peso).
Percorsi BGP senza il costo comunità si presume un valore abbastanza alto costo (2.147,483647 millions, come spiegato da una documentazione di Cisco ), provocando il percorso iBGP di essere migliore del percorso locale (che non ha avuto comunità costo).
Il costo esteso BGP comunità si manifesta generalmente in reti che eseguono EIGRP tra PE-e CE-router che tentano di far fronte alle sedi dei clienti multihomed. Anche se è possibile cambiare manualmente con il costo extcommunitiy set di comandi in numerosi luoghi in cui una route-map possono essere utilizzati, non dovrebbe apparire in rete il mio lettore - il suo percorso di default è stato un percorso semplice statica ridistribuito in BGP senza una route-map.
Si è scoperto che incappato in un bug, che stava usando EIGRP nello stesso VRF, e la rimozione e la riattivazione EIGRP-to-BGP ridistribuzione della famiglia di indirizzi VRF rimosso il randagio costo comunità da quella di default. Ovviamente questo fix non è sempre applicabile - non si può semplicemente rimbalzare redistribuzione EIGRP ogni volta un prefisso BGP riceve uno strano set di comunità - ma per fortuna è possibile ignorare il costo comunità con il bestpath bgp costi comunità ignorare comando di configurazione del router.

lunedì 5 novembre 2012

SALTA LE TRANSIZIONI, BUILD-IPV6 SOLO DATA CENTER


Nel corso del vertice di IPv6 settimana scorsa ho presentato un 'idea interessante proposta per primo da Tore Anderson : facciamo saltare tutte le fasi di transizione e implementare IPv6-only data center .
È possibile visualizzare la presentazione o guardare il video , per maggiori informazioni (compresa la descrizione di routing trucchi per ottenere questa idea lavorare con vaniglia NAT64), orologio di Tore RIPE64 presentazione .
Ivan Pepelnjak, CCIE # 1354, è il consulente tecnologico principale per NIL Data Communications . E 'stato progettazione e realizzazione di grandi reti di comunicazione dati, nonché l'insegnamento e la scrittura di libri su tecnologie avanzate dal 1990. Vedi il suo profilo completo , contattare lui o seguire ioshints @ su Twitter.

QUAL È STATO VCIDER TUTTO QUESTO?

Dopo Cisco ha acquisito vCider ai primi di ottobre il contenuto rapidamente scomparso dal sito vCider web. Se la stampa di settore roboante sostiene come acquisizione vCider rappresenta la risposta di Cisco per l'acquisizione Nicira VMware , e in che modo "aumentare visione nube distribuito Cisco "lasciato confuso, leggere il mio post sul blog da giugno 2011 a rivedere ciò che vCider trattasse. Per una visione più equilibrata, anche leggere post del blog di Omar Sultan .
Infine, si potrebbe desiderare di guardare la descrizione di vCider dal mio Networking Cloud Computing webinar.