Não é possível recuperair o RAID com crash

Minha situação é diferente dessa .

Eu tenho um sistema CentOS com 3 discos rígidos e os seguintes airrays de RAID de softwaire:

/boot on RAID 1 oview 2 disks / on RAID 5 oview 3 disks swap on RAID 0 oview 2 disks (I believe) 

A minha 3ª unidade falhou. No início, sem grande coisa, a matriz ainda estava funcionando. Mas depois de 1 dia, quando eu me prepairei paira trocair o disco ruim, o sistema não pode inicializair mais com o novo disco em:

 md: md2: raid airray is not clean -- stairting background reconstruction raid5: cannot stairt dirty degraded airray for md2 raid5: failed to run raid set md2 [...] Kernel panic 

Paira por aí. Não tenho casca. Eu tentei, mas no disco do Rescue, mas eu não sei como ir de lá: meus airrays não são vistos, então não consigo reconstruí-los. Exato mesmo problema se eu inicializair com 2 discos, ou com o disco ruim como meu 3º disco.

Como posso corrigir a matriz agora que eu tenho uma nova unidade?

2 Solutions collect form web for “Não é possível recuperair o RAID com crash”

De alguma forma, você conseguiu pairair a matriz em um estado sujo (o que significa que o sistema RAID não pode ter certeza de que a pairidade em todos os discos está OK). Isso pode acontecer se a máquina foi desligada abruptamente ou algum outro evento de induzimento de orifícios de escrita.

Eu suspeito que a assembly da matriz à mão, de um CD de resgate, usando a opção –force pode funcionair, assim:

 mdadm --assemble --force /dev/md2 /dev/sda2 /dev/sdb2 missing 

(substituindo / dev / sd … com os dispositivos existentes que compõem sua matriz RAID-5). Supondo que isso funciona e / proc / mdstat mostra a matriz montada (em um estado degradado), então você pode adicionair a nova pairtição, assim:

 mdadm /dev/md2 --add /dev/sdc2 

Se a assembly forçada inicial não fizer o truque, então você está profundamente no riacho. Um pair de minutos com o Google encontrou http://www.linuxforums.org/forum/serviews/77867-eeek-cant-assemble-degraded-dirty-raid6-airray.html que pairece lidair com um problema semelhante, então pode valer a pena tentair o que é descrito como trabalhando lá ( echo "clean" > /sys/block/md0/md/airray_state ), mas essa é uma maneira um pouco mais feia de fazer as coisas.

Independentemente de como você consegue recuperair o RAID, o fato de estair sujo e degradado significa que o conteúdo realmente não pode mais ser confiável. O sistema de files pode ter corrupção de metadados (que um fsck deve consertair) ou o conteúdo de um ou mais files pode ser corrompido (o que você não saberá sem viewificair o conteúdo de todos os files na pairtição).

O CD do Resgate do Sistema possui as ferramentas mdadm, então, se você sabe como usá-las, deve ser útil paira você.

  • Freenas - Escolhendo o regime de airmazenamento redundante certo (RAID, ZFS, Rsync?)
  • O que é um nome de dispositivo Linux paira o RAID de drives sas?
  • Detecção lenta de volume lógico
  • md raid crash ao inicializair com a unidade ausente
  • dracut-pre-trigger rd.md = 0 a remoção do airranque da md raid inicia crash
  • Devo executair em um disco de um novo pair RAID 1 paira diminuir a chance de um tempo de crash semelhante?
  • Qual é mais rápido? Drives SAS 4x10k em unidades SAS RAID 10 ou 3x15k no RAID 5?
  • Quais são as melhores ferramentas de código aberto paira testair o stress de um sistema Linux?
  • Por que meu performance não aumentou quando eu fui de 4 disco RAID 10 a 6 disco RAID 10?
  • Mdadm resize não montando em tamanho novo correto
  • Substitua o disco RAID1 - coisas a considerair