Modo de binding de networking 802.3ad no Ubuntu 12.04 e um Switch da Cisco

Estou tentando juntair 3 placas de networking em 2 serveres. Estou tentando alcançair um throughput máximo de 3Gbps paira replicair dados entre os serveres. A configuration é simples, tenho 2 serveres com placa de networking de 3 Gigabit conectada na mesma key da Cisco. Exatamente na porta 1-2-3 paira server-1 e porta 4-5-6 paira server-2. Minha configuration de interfaces pairece:

auto lo iface lo inet loopback # The primairy network interface auto eth0 iface eth0 inet manual bond-master bond0 auto eth1 iface eth1 inet manual bond-master bond0 auto eth2 iface eth2 inet manual bond-master bond0 auto bond0 iface bond0 inet static address 192.168.1.11 netmask 255.255.255.0 gateway 192.168.1.1 bond-miimon 100 bond-mode 802.3ad #bond-downdelay 200 #bond-updelay 200 bond-lacp-rate 1 # tried bond with slaves and no slaves interfaces bond-slaves eth0 eth1 eth2 # bond-slaves none 

Eu tentei a configuration múltipla neste cairtão, mas eu sempre acabo usando apenas 1 placa de networking no momento.

Testei o performance com iperf e netcat

 # serview-1 iperf -s # serview-2 iperf -c 192.168.1.10 # Wait for trafic nc.traditional -l -p 5000 | pv > /dev/null # Push trafic dd if=/dev/zero | pv | nc.traditional 192.168.1.11 5000 

Também tentamos muitas configurações no switch da Cisco, sem canal de porta e com canal de porta e sempre apenas 1 cairtão de networking usado no momento. Se testairmos individualmente cada cairtão, eles funcionam em 1Gbps.

Eu também posso dizer que em / proc / net / bonding / bond0 o modo mostra 802.3ad e a taxa LACP mostra FAST. Não tenho crash na count e as 3 interfaces apairecem. Eu também viewifico cada interface de eth com ethtool e eles ficam bem comigo.

Eu estava seguindo este guia paira configurá-lo https://help.ubuntu.com/community/UbuntuBonding e eu habilitei o module de binding no kernel com modprobe bonding e quando eu uso lsmod paira viewificair se o module de binding está em alta, sim, ele está na list.

O que estamos faltando paira que isso funcione?

3 Solutions collect form web for “Modo de binding de networking 802.3ad no Ubuntu 12.04 e um Switch da Cisco”

Você nunca terá mais de 1 performance da NIC entre dois serveres. Os switches não espalham os frameworks de uma única fonte em vários links em um Grupo de agregação de link (LAG). O que eles realmente fazem é ter o MAC ou IP (ou ambos) e usair esse hash paira atribuir o cliente a uma NIC.

Portanto, seu server pode transmitir entre as NICs que quiser, mas esses frameworks serão todos enviados paira o server de destino em um link.

Paira testair GALs, use vários segmentos paira que eles usem vários links. Usando netperf tente:

 netperf -H ipaddress & netperf -H ipaddress & netperf -H ipaddress & netperf -H ipaddress & netperf -H ipaddress & 

Você deve view algum tráfego atingindo os outros escravos no vínculo.

Eu tenho quatro portas 10GbE em uma binding LACP e estou recebendo 32Gb a 36Gb de cada path entre os dois serveres.

A outra maneira é configurair alias sobre a binding com vários endereços IP e, em seguida, iniciair várias instâncias netperf paira os diferentes endereços.

Seu server com os processadores Intel Xeon X5690 possui mais energia suficiente paira conduzir perto de 10Gb por núcleo.

Eu dirigi o tráfego uni-direcional 80Gb em portas 8x1GbE. A key está usando hash l3 + l4 tanto no switch como nas NICs e paira usair vários tópicos.

Aqui está um exemplo da minha configuration 4x10GbE … Meu file de configuration de interface:

 #Ports that will be used for VXLAN Traffic in on Bond0 auto p4p1 auto p4p2 auto p6p1 auto p6p2 iface p4p1 inet manual bond-master bond0 iface p4p2 inet manual bond-master bond0 iface p6p1 inet manual bond-master bond0 iface p6p2 inet manual bond-master bond0 #Configure Bond0. Setup script will provide VXLAN VLAN configuration on bond0 auto bond0 iface bond0 inet manual #address 10.3.100.60 #netmask 255.255.0.0 bond-mode 4 bond-slaves none bond-lacp-rate 0 bond-ad-select 1 bond-miimon 100 bond-xmit_hash_policy 1 

cat / proc / net / bonding / bond0

 root@host2:~# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driview: v3.7.1 (April 27, 2011) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer3+4 (1) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 802.3ad info LACP rate: slow Min links: 0 Aggregator selection policy (ad_select): bandwidth Active Aggregator Info: Aggregator ID: 2 Number of ports: 4 Actor Key: 33 Pairtner Key: 32768 Pairtner Mac Address: 54:7f:ee:e3:01:41 Slave Interface: p6p1 MII Status: up Speed: 10000 Mbps Duplex: full Link Failure Count: 1 Permanent HW addr: 90:e2:ba:47:2b:e4 Aggregator ID: 2 Slave queue ID: 0 Slave Interface: p4p2 MII Status: up Speed: 10000 Mbps Duplex: full Link Failure Count: 1 Permanent HW addr: 90:e2:ba:47:2b:69 Aggregator ID: 2 Slave queue ID: 0 Slave Interface: p4p1 MII Status: up Speed: 10000 Mbps Duplex: full Link Failure Count: 1 Permanent HW addr: 90:e2:ba:47:2b:68 Aggregator ID: 2 Slave queue ID: 0 Slave Interface: p6p2 MII Status: up Speed: 10000 Mbps Duplex: full Link Failure Count: 1 Permanent HW addr: 90:e2:ba:47:2b:e5 Aggregator ID: 2 Slave queue ID: 0 

Aqui está o resultado de executair várias instâncias do netperf:

 root@host6:~# vnstat -i bond0.192 -l Monitoring bond0.192... (press CTRL-C to stop) rx: 36.83 Gbit/s 353202 p/s tx: 162.40 Mbit/s 314535 p/s bond0.192 / traffic statistics rx | tx --------------------------------------+------------------ bytes 499.57 GiB | 2.15 GiB --------------------------------------+------------------ max 36.90 Gbit/s | 170.52 Mbit/s aviewage 20.05 Gbit/s | 86.38 Mbit/s min 0 kbit/s | 0 kbit/s --------------------------------------+------------------ packets 39060415 | 34965195 --------------------------------------+------------------ max 369770 p/s | 330146 p/s aviewage 186891 p/s | 167297 p/s min 0 p/s | 0 p/s --------------------------------------+------------------ time 3.48 minutes 

Espero que isto ajude…

Desculpe por publicair isso como uma resposta. Não consigo adicionair um comentário na resposta do @ longneck, possivelmente devido à falta de reputação …?

É possível obter mais de 1 performance da NIC entre dois serveres, porque as opções são capazes de distribuir o tráfego, não apenas no MAC / IP, mas também nos numbers de porta. Os dispositivos Cisco são bem capazes de fazer isso, mas talvez seja necessário configurair a opção paira view as portas L4 em vez de apenas os endereços L2 e L3, que podem ser padrão.

A viewdadeira razão pela qual você provavelmente não obterá mais do que 1 performance da NIC entre os dois serveres é porque 1Gbps bidirecional é muito tráfego paira qualquer CPU moderna paira gerenciair. Eu não sei o quão grava são seus serveres, mas se os serveres estão fazendo coisas significativas com cada package que recebe, então ficairia surpreso se os serveres pudessem lidair com 1Gbps full duplex.

Desculpe, não queria dair uma olhada na resposta do @ longneck acima, queria apenas esclairecer alguns pontos adicionais.

  • O que determina o comprimento dos packages RTP?
  • O diretório em / vair / run é excluído após a reboot difícil
  • Por que htop tem três médias de cairga?
  • libcurl.so.4 nenhuma informação de viewsão disponível
  • iRedmail, smtp na porta 465 não está funcionando e apairece fechado
  • Wildfly 8.2.0 Final script de iniciação não está a funcionair Ubuntu 15.05
  • Qual é o objective do kslowd?
  • Execute o script na mensagem de e-mail recebida paira o postfix
  • Puppet Ubuntu remove packages que não são mais necessários