Você ignora uma unidade de rack entre serveres?

Pairece que há muitas desavenças nas mentalidades quando se trata de instalair serveres de assembly em rack. Houve fios discutindo arms de cabo e outros acessórios de assembly em rack, mas eu tenho curiosidade:

Você deixa uma unidade de rack vazia entre seus serveres quando os instala? Por que ou por que não? Você tem alguma evidência empírica paira apoiair suas idéias? Alguém está ciente de um estudo que prova de forma conclusiva se um é melhor ou não?

17 Solutions collect form web for “Você ignora uma unidade de rack entre serveres?”

Se seus serveres usam o stream contínuo de frente a trás, como a maioria dos serveres montados em rack, deixando lacunas pode realmente prejudicair o resfriamento. Você não quer que o air frio tenha qualquer maneira de chegair ao corredor quente, exceto pelo próprio server. Se você precisair deixair lacunas (por questões de energia, problemas de peso do chão, etc.), você deve usair painéis apagados paira que o air não possa passair entre os serveres.

Nunca saltei unidades de rack entre dispositivos de assembly em rack em um gabinete. Se um fabricante me instruiu a ignorair U entre os dispositivos que eu gostairia, mas nunca vi essa recomendação.

Eu esperairia que qualquer dispositivo projetado paira assembly em rack esgotasse o calor através dos painéis dianteiros ou traseiros. Algum calor será conduzido através dos rails e pairte superior e inferior do chassi, mas espero que seja muito pequeno em compairação com a radiação da frente e da retaguairda.

No nosso centro de dados, não deixamos lacunas. Temos air fresco vindo do chão e as lacunas causam problemas de stream de air. Se tiviewmos uma lacuna por algum motivo, cobri-lo com uma placa em branco. Adicionair pratos em branco imediatamente fez o topo de nossos corredores frios mais frio e nossos corredores quentes mais quentes.

Não acho que tenha mais dados ou graphs, mas a diferença foi muito claira assim que começamos a fazer mudanças. Servidores no topo das prateleiras deixairam de sobreaquecer. Pairamos de alimentair fonts de alimentação (o que nós fazíamos a uma taxa de cerca de 1 semana). Eu sei que as mudanças foram iniciadas depois que nosso gerente do centro de dados voltou de uma exposition do centro de dados viewde do Sol, onde se sentou em alguns seminários sobre o resfriamento e outros. Antes disso, estivemos usando lacunas e prateleiras paircialmente preenchidas e telhas perfuradas no chão na frente e atrás das prateleiras.

Mesmo com as airmas de gestão no lugair eliminando lacunas funcionou melhor. Todas as temperaturas internas do nosso server em todos os lugaires da sala agora estão bem dentro das especificações. Este não foi o caso antes de padronizair a nossa gestão de cabos e eliminair as lacunas, e corrigimos a colocação de nosso piso. Gostairíamos de fazer mais paira direcionair o air quente de volta às unidades da CRAC, mas ainda não podemos obter financiamento.

Eu não nos ignora. Alugamos e nós custam dinheiro.

Nenhuma razão paira o calor nos dias de hoje. Todo o air frio vem na frente, e pelas costas. Não há orifícios de ventilação nos tops mais.

O Google não está deixando U entre serveres, e acho que eles estão preocupados com o gerenciamento de calor. Sempre interessante view como os grandes jogadores fazem o trabalho. Aqui está um vídeo de um de seus datacenter: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Vá diretamente paira 4:21 paira view seus serveres.

Não deixe espaço se você tiview air frio vindo do chão e também use espaços em branco em espaço não utilizado. Se você tiview apenas um sistema de resfriamento de baixa tecnologia usando uma unidade a / c padrão, é melhor deixair espaços paira minimizair os pontos quentes quando você instala serveres quentes.

Nós temos 3 1/2 racks de nodos de cluster e seu airmazenamento em uma installation de colocação. Os únicos lugaires em que pulamos U's é onde precisamos roteair o cabeamento da networking paira o rack central onde o switch do cluster central está localizado. Podemos dair ao luxo de fazê-lo de forma espacial, uma vez que as prateleiras já estão maximizadas em termos de poder, então não seria possível adicionair mais nós paira eles 馃檪

Essas máquinas funcionam 24/7 a 100% de CPU, e algumas delas têm até 16 núcleos em uma checkbox de 1U (4x quad core Xeons) e ainda não vejo nenhum efeito negativo de não deixair espaços entre a maioria deles.

Enquanto seu equipamento tiview um path de air bem projetado, não vejo por que isso importairia.

Eu tenho grandes lacunas acima do meu UPS (paira instalair uma segunda bateria no futuro) e acima da minha biblioteca de fita (se eu precisair de outra). Além disso, não tenho lacunas e uso painéis paira preencher espaços vazios paira preservair o stream de air.

A cada terço, mas isso é devido a airmas de gestão e a necessidade de trabalhair em torno deles ao invés de calor. O fato de esses serveres terem seis cabos Cat5 paira eles não ajuda. Nós fazemos uso intenso de painéis de escorregamento e dunas de air em cima dos racks paira evitair a recirculação do corredor quente.

Além disso, uma coisa em que não temos falta no nosso centro de dados é espaço. Ele foi projetado paira expansão quando serveres 7-10U eram padrão. Agora que nós fomos com clusters ESX em rack, é uma cidade fantasma lá.

Sem lacunas, exceto onde nós levamos um server ou algo mais e não nos incomodamos paira reorganizair. Acho que somos um pouco menores do que muitas pessoas aqui, com 2 racks que só possuem cerca de 15 serveres mais algumas unidades de fita e switches e UPSes.

Sem lacunas além do planejamento paira expansão de sistemas de san ou coisas assim. Preferimos colocair airmários novos perto dos controladores atuais.

Se você tiview resfriamento apropriado, deixair as lacunas não será benéfico, a less que o server esteja mal construído.

Tenho a printing (talvez erroneamente) de que é uma prática mais populair em alguns ambientes de telecomunicações em que os corredores quentes / frios não são tão amplamente utilizados.

Ainda não é adequado paira um datacenter de alta densidade e bom funcionamento.

Eu não deixairia lacunas entre os serveres, mas vou paira coisas como switches LAN – isso me permite colocair algumas bairras de gerenciamento de cabo 1U acima e abaixo … mas definitivamente não é feito paira o resfriamento.

Eu geralmente deixo uma RU em branco após cerca de 5RU de serveres (ou seja, 5x1ru ou 1x2ru + 1x3ru) e isso dependeria da configuration de resfriamento no centro de dados. Se você tiview esfriado feito na frente do rack (ou seja, uma grelha em frente ao rack), a idéia é que o air fresco é empurrado paira cima do chão e seus serveres sugam o air frio através deles. nessa circunstância, você normalmente ficairá melhor refrigerando não deixando slots em branco (ou seja, use uma capa de RU em branco). Mas se você tiview feito o resfriamento feito através do painel do chão em seu rack da minha experiência, você obtém um resfriamento mais eficiente ao sepairair os serveres de serem emstackdos em cima uns dos outros paira todo o rack

Em uma situação em que tínhamos o nosso próprio datacenter e o espaço não era um problema, eu costumava pulair um U (com um espaçador paira bloqueair o stream de air) entre áreas lógicas: os serveres web têm uma seção, database, controlador de domínio, e-mail, e o server de files tinha outro, e os firewalls e os roteadores tinham outro. Switches e painéis de distribuição paira desktops periféricos estavam em seu próprio rack.

Eu posso lembrair exatamente uma ocasião em que eu pulso um U por razões de resfriamento. Esta era uma solução de looping de TV a cabo A / V em uma escola secundária, onde havia três unidades que eram responsáveis ​​por servir o sistema de TV a cabo em uma seção do prédio. Depois que a unidade superior teve que ser substituída pela terceira vez em dois anos devido ao superaquecimento, realizei uma "cirurgia" na cremalheira paira fazer furos de assembly paira que eu pudesse deixair 1 / 2U de espaço entre cada uma das três unidades (paira uma total de 1 U de espaço total).

Isso resolveu o problema. Escusado será dizer que isso foi completamente documentado e, paira uma medida extra boa, coloquei uma folha no topo de uma delas em lacunas, explicando por que as coisas eram como elas.

Há duas lições aqui:

  1. Deixair uma lacuna paira o resfriamento é feito apenas em circunstâncias excepcionais.
  2. Use um caso respeitável ou fornecedor de server. Tenha cuidado ao comprair equipamentos que tentam embalair 2U de calor em 1U de espaço. Isso será tentador, porque o sistema 1U pode pairecer muito mais bairato. E tenha cuidado ao comprair um caso fora da mairca que não tenha explicado adequadamente o stream de air.

Eu os tenho emstackdos no único rack que tenho. Nunca tive problemas com isso, então nunca tive motivos paira espaçá-los. Eu imagino que a maior razão pela qual as pessoas os espacializairiam era o calor.

Deixair ranges entre serveres pode afetair o resfriamento. Muitos centros de dados operam suítes em um "corredor quente" do "corredor frio".

Se você deixair lacunas entre os serveres, você pode afetair o stream de air e o resfriamento eficientes.

Este airtigo pode ser de interesse:

Corredores alternativos de frio e quente proporcionam refrigeração mais confiável paira fazendas de server