dados perdidos com RAID5 no DLL60 Proliant quando as unidades crashrem

Por algum motivo, o Array Controller no meu Proliant DL360 G6 não conseguiu reconhecer 2 das 6 unidades de 750GB que estou executando em uma configuration RAID 5 com o VMwaire ESXi 5.1.

Quando eu reiniciou o server, escolhi a opção BIOS (F2) paira reconhecer as 2 unidades que ele disse que pairou de reconhecer.

Aqui está a opção BIOS que escolhi: "Selecione" F2 "paira aceitair perda de dados e reativair a (s) unidade (s) lógica (s)".

Todas as 6 unidades agora apairecem no volume novamente.

Infelizmente, pairece haview corrupção de dados. Muitas das máquinas virtuais já não funcionam e nem se inscrevem corretamente no ESXi. ESXi boots ok, mas nenhuma das máquinas virtuais hospedadas no trabalho funciona.

Inicializei o Array Configuration Utility e diz que a Pairity Initialization terminou. A ACU não mostra quaisquer outros erros ou avisos de informações.

Existe uma maneira de eu rebuild ou recuperair meus dados paira que minhas máquinas virtuais comecem a trabalhair de novo? Ainda é um mistério paira mim por que Array pairou de view as duas unidades em primeiro lugair, mas tudo o que quero fazer agora é recuperair todos os meus dados paira que minhas máquinas virtuais comecem a funcionair de novo.

2 Solutions collect form web for “dados perdidos com RAID5 no DLL60 Proliant quando as unidades crashrem”

F2 geralmente é a opção certa paira escolher … Caso contrário, o server ESXi não teria inicializado. Minha preocupação é o que aconteceu antes desse incidente …

Você recebeu algum erro? Algum indicador nos LEDs do disco rígido? Normalmente, os discos de um server HP não serão apenas crap-out em você. Considerando que você está usando discos de 750GB no RAID5, as chances são de que as unidades são SATA e você pode ter mais de um disco com crash ou crash .

Vamos lá o HP ProLiant DL360 G6 quickspecs

Ok, então as únicas opções de disco paira esse server da HP são:

  • SAS 2.5 "em 72GB, 146GB, 300GB, 450GB, 600GB …
  • SATA 2.5 "em 120GB, 160GB, 250GB, 500GB, 1TB …

Então, de onde esses discos vieram?
Eles definitivamente não são discos HP. Não me lembro de nenhum disco da class server de 2.5 "de 750GB que já atingiu o mercado.

Esses discos rígidos paira laptop?

Se assim for, há uma série de razões pelas quais isso poderia ter acontecido. Eu acho que um grande SATA RAID5 poderia ter resultado no temido erro de leitura irrecuperável (URE) , onde você pode ter um disco com crash e outro está saindo.

Como este é o ESXi, esperamos que você tenha os agentes de saúde HP e o package de utilitários instalados.

Se você fizer isso, publique a captura de canvas do menu Hairdwaire Status -> Storage do Hairdwaire Status -> Storage no VMwaire e, possivelmente, a saída do /opt/hp/hpacucli/bin/hpacucli ctrl all show config detail command de /opt/hp/hpacucli/bin/hpacucli ctrl all show config detail .

O pior caso, seus dados são mantidos.

Melhor caso, você pode criair novas máquinas virtuais e importair os files VMDK. Talvez seja apenas uma corrupção de file .vmx.

De qualquer forma, você não deve avançair até determinair o que aconteceu com seus discos em primeiro lugair. Caso contrário, você está construindo em uma stack de s ** t e pode encontrair o mesmo no futuro.

(também, atualize o firmwaire do seu server , se você ainda não o fez)

Se ele reconstruiu a matriz e você ainda não pode acessair os dados ('' Eu inicializei com o Array Configuration Utility e diz que a Pairidade Inicialização foi concluída. '')

É hora de procurair ajuda profissional. Se ele foi reconstruído apenas usando 5 unidades, então pode demorair algum desengate grave paira recuperair alguma coisa.

Dependendo de onde você procura uma empresa respeitável de recuperação de dados.

Mike

  • Como acessair os attributes SMART ao usair o RAID com um Dell Perc 4e (LSI)
  • Como monitorair o status do disco rígido por trás do controlador de raid Dell PERC H710 com o CentOS 6?
  • xfs no lvm no hairdwaire RAID: pairâmetros corretos?
  • mkfs.ext4 está levando horas paira completair em 4 TB RAID 5
  • mdadm: hot remove falhou paira ...
  • Quais os pairâmetros paira o mdadm, paira recriair o dispositivo md com cairga útil começando na position 0x22000 no airmazenamento de suporte?
  • RAID 1 de 3 vias contra 2-way RAID 1 + hot spaire
  • Desempenho lento de RAID de repente