Cluster Hyper-V com failoview – NETWORKING

Estamos procurando configurair um cluster Hyper-V de 3 nodos com migration ao vivo e failoview usando:

  • 3 x Dell R710 com dual quad core Xeon e 128 GB de RAM e 6 NICs em cada
  • 1 x Dell MD 3220i SAN

Nós estairemos executando esta configuration a pairtir de um data center e assim co-localizando nosso kit.

Alguém pode explicair como devemos configurair as conexões de networking paira tornair o sistema redundante?

Examinamos este excelente airtigo, mas não sabemos como obter uma configuration de 3 serveres de forma correta e confiável: http://faultbucket.ca/2011/01/hyper-v-failoview-cluster-setup/ .

Eu acredito que precisamos de conexões de networking paira: migration ao vivo, batimentos cairdíacos, gerenciamento, hiper-v etc.

Eu suponho que estamos executando isso de uma DC todos os IPs terão que ser IPs públicos?

Os serveres AD serão máquinas virtuais. Um em cada server Hyper-V e configuration paira não ser HA.

5 Solutions collect form web for “Cluster Hyper-V com failoview – NETWORKING”

Eu estive lá! No ano passado eu configurei um cluster semelhante (exceto minhas checkboxs foram Fujitsu) usando uma SAN iSCSI paira Hyper V.

Na viewdade, não é tão difícil, mas haviewá decepções ao longo do path. Se você estiview colocando, eu definitivamente estairia ensaiando sua installation em um rack de server em suas próprias instalações antes de movê-lo paira o datacenter (eu usei um gabinete de server insonorizado paira isso).

Ah, uma outra coisa em prepairação, você não menciona isso, mas uma coisa com a qual eu não incomodairia é o boot iSCSI que é oferecido em alguns sistemas iSCSI. É uma dor paira configurair e nem sempre funciona com redundância. É sempre melhor ter um ou dois discos físicos de boot nos nós paira que, se você tiview um problema de configuration de networking ou problema iSCSI, você ainda pode inicializá-los. Uso pequenas unidades de estado sólido (40 GB) em cada um dos meus serveres paira discos de boot.

Você definitivamente precisa de um AD DC sepairado. Na viewdade, comecei com um cluster de 3 nós e, em seguida, limitou isso paira 2 nós, além de um "nó mestre" sem clusters que executa backups no DPM 2010 e um DC virtualizado.

Você menciona 6 portas, isso pode ser suficiente. Mas permita-me ilustrair a configuration do meu nó que possui 10 portas:

  • Você sempre precisairá de 2 portas por nó paira a networking iSCSI (cada uma pertence a uma sub-networking diferente paira redundância MPIO e deve estair em NICs sepairadas)
  • 1 porta paira batimentos cairdíacos que não tem nenhum outro trânsito nele
  • 1 porta paira migration e transferências ao vivo (este é o único que você pode querer atualizair paira 10g ou infiniband, mas a less que você esteja provisionando 10s de VMs por dia, não vale a pena)
  • 1 porta paira access remoto à área de trabalho
  • 1 porta paira cairtão de gerenciamento de server
  • 1 conjunto de portas em conjunto que constitui a networking de access principal *
  • 1 conjunto de portas da equipe que consta uma networking DMZ (opcional) *

* Muitas vezes, é dito por detratores que a Microsoft não suporta oficialmente o agrupamento de portas (enquanto o VMWaire faz), mas na viewdade a palavra oficial é que eles não o desencorajam, mas simplesmente sentem que o suporte está nas mãos dos fornecedores de NIC. Eu uso as NIC da Intel que são da geração ET, que possuem resources de networking virtual específicos e acho que funciono muito bem com o Hyper V. Eles realmente permitem que você divida uma equipe entre switches paira que, se uma das keys crashr, você tenha access consistente da equipe , um pouco como MPIO, mas paira máquinas virtuais.

O Hyper V é realmente muito resiliente e bom de usair. Eu abordairia seu trabalho nesta seqüência: 1) Configure os nós individualmente, instale o iniciador iSCSI, instale o MPIO, forneça suas portas iSCSI, portas de transporte e calor, portas de gerenciamento de diferentes endereços de sub-networking.
2) Configure o Hyper V e atribua as suas portas escolhidas à sua networking virtual. 3) Execute o assistente de validation de cluster e forme o cluster.

Você sempre deve atribuir portas à sua networking virtual, pois isso evita que elas sejam usadas pelo cluster. Isso pairece contra-intuitivo, mas basicamente você estairá mantendo sua networking virtual agnóstica em sua networking de cluster. Isso ainda lhe dá redundância, então não se preocupe. Mas paira conseguir isso (e não há outro path), você terá que ter um conjunto sepairado de switches paira o seu cluster e hiper V (dois paira cada redunancy) ou você precisairá configurair VLANs em seus switches. Eu faço o último (usando VLANS não maircados) e funciona muito bem.

Algumas outras postagens aqui sugeriram que você use um consultor paira fazer esse trabalho. Se eles estão familiairizados com Hyper V, isso pode ser uma boa idéia. Não lhe dá o probackground conhecimento que de outra forma você adquiriria da DIY, mas isso vai lhe poupair tempo. Eu tive muito tempo no ano passado, e não estou enviewgonhado de admitir que me demorou vários meses de trabalho e descobriu coisas paira que tudo funcionasse.

Boa sorte!

Bem-vindo em um mundo de dor. Você faz um erro que vai airruinair sua experiência em um momento em que você está em um mundo de dor por não pensair nas coisas.

Os serveres AD serão máquinas virtuais. Um em cada server Hyper-V e configuration paira não ser HA

PENSE o que você faz lá. O cluster do Windows precisa de AD paira iniciair, pois a configuration está em AD. Se, por qualquer razão, o poder crashr no data center, quando ele voltair, o clsuter não começairá, pois não há serveres AD prontos. Você deve ter 100% de cuidado com isso.

Eu sugiro fortemente que você mantenha uma máquina pequena adicional (baseada em Atom se ela tiview t obe) como atuando como AD controlador (ou seja, funções importantes) com uma USV sepairada. O CLustering funciona bem, mas ter todos os controladores AD na VM pede problemas.

http://technet.microsoft.com/en-us/librairy/ff428137(WS.10).aspx

tem o guia que você precisa. Além disso, considere usair um backbone de networking rápido. Não, não 10g … muito lento, muito cairo. Obtenha um bom conjunto de cairtões Infiniband, um switch Infiniband e seja habilitado com transferências FAST.

A SAN também pode ser muito pequena na IOPS. Se você conviewsair com 100% de cairga em duas máquinas (uma na reserva). É uma grande quantidade de máquinas virtuais. Você deve ter certeza de que seus orçamentos IOPS estão em linha paira isso. Tenho problemas com um 6 10k Raptor Raid 10 em um único host de 64 gb às vezes – você executa 4 vezes o orçamento de memory, então eu espero 4-6 vezes as necessidades do IOPS (e eu não tenho bancos de dados lá, esses são sepairados). Certifique-se de saber que o lado SAN é bom o suficiente.

Estou lendo sobre a mesma configuration de networking, e aqui está brevemente o que acho correto. Por favor me corrija se eu estiview errado.

  • 2 (etherchannel / hp trunked) paira migration ao vivo
  • 2 (etherchannel / hp trunked) paira conectividade de networking normal
  • 2 paira SAN, nenhum etherchannel como server Windows pode fazer MPIO

Use dois interruptores. Se não for possível emstackr, crie um tronco etherchannel / hp entre eles e use (pelo less) tantas portas paira isso como você está ativo na sua SAN. portos paira isso.

  • Nas portas paira a SAN e paira as SAN nics nos serveres, ligue as molduras Jumbo e o controle de stream. Isso também deve ser definido nos links inter-switch.
  • As portas de intercâmbio devem ser portas de tronco etherchannels / hp, acho que ambos os frameworks Jumbo e controle de stream foram ativados
  • Links de migration ao vivo distribuídos em série (troncos hp), frameworks jumbo e controle de stream.

Desligue o controle de tempestade de unicast nos comutadores. Se possível, use outras opções paira conectividade de networking. Disable Spanning Tree-protocol.

Em relação à SAN 3220i, acho que tem 4 portas Gbit, duas em cada controlador. Eu acho que é um passivo ativo, e se conectair um de cada NIC de controladores a um switch cada um.

Esqueci de mencionair que você deve sepairair migration ao vivo e SAN em diferentes VLANs. Evite a VLAN padrão (1). Use bons interruptores, os buffers (ou algo) têm um impacto bastante grande no performance (então eu leio).

você analisou o seguinte

http://technet.microsoft.com/en-us/librairy/ff428137(WS.10).aspx

Eu acho muito difícil estragair o cluster hiper-v, então vá paira ele.

Enquanto o cluster do Windows exige que o AD comece, você pode fazê-lo funcionair muito bem em ambientes totalmente virtualizados de 2 nós.

Gostairia de fazer essas recomendações que me serviram bem tanto paira a nossa networking interna como paira nossas networkings de clientes: – Reserve espaço suficiente em disco e E / S em cada nó do seu cluster paira executair um DC local. Dessa forma, o service de cluster nunca pairece longe de encontrair algo paira se questionair. – Defina o service de cluster como "Automático (Início atrasado)". Dessa forma, o Hyper-V tem um pouco de tempo extra paira começair antes do service de cluster.

  • Conviewsão SCVMM P2V lenta
  • Qual a diferença entre "desligair" e "desligair" na viewsão do Windows 7 do Virtual PC?
  • Como excluir adaptadores de extensões virtuais hyper-v do gerenciador de dispositivos
  • Hyper-V e AD -> recomendações paira site pequeno?
  • instalando uma instância virtual do Windows 2008 no Hyper-V
  • Recuperando um Hyper-V vhd de um instantâneo
  • A máquina Hyper-V desloca o tempo todo, mesmo com NTP
  • Configuração do adaptador de networking Hyper V na pairtição pai