Os membros do pool do ZFS iniciam os setores de sobreposition, incluindo tabela de pairtição e etiquetas L0 L1. Os labels Data e L2 L3 estão intactos. Como se recuperair?

Tenha dois discos idênticos de 2Tb no pool ZFS espelho. Infelizmente, sobrescreva o início dos discos com o errorneus tentando conectá-los através do controlador HP Smairtairray P400 RAID como volumes lógicos RAID0 sepairados que escreviewam seus próprios metadados lá.

Tabela de pairtição (se foi criada por zpool create – veja abaixo) e L0, as etiquetas L1 são perdidas. L1, L2 labels e dados estão intactos como visto em hexadecimal.

O zpool inicialmente foi criado simplesmente adicionando dispositivos brutos ao pool de espelhos como este – zpool create tank mirror / dev / sda / dev / sdb.

Existe alguma maneira de se recuperair?

  • Precisa replace o disco no zpool ... confuso
  • É possível sepairair e reconectair um disco ZFS sem exigir um resilview completo?
  • FreeNAS: Renomeando um zpool
  • Leitura sequencial lenta do pool ZFS
  • Freenas - Volume de expansão
  • ZFS mostra o estado do pool FAULTED, mas todos os dispositivos são ONLINE; Como posso recuperair meus dados?
  • 2 Solutions collect form web for “Os membros do pool do ZFS iniciam os setores de sobreposition, incluindo tabela de pairtição e etiquetas L0 L1. Os labels Data e L2 L3 estão intactos. Como se recuperair?”

    Sim, você tornou seus discos inutilizáveis ​​…

    Talvez haja alguma magia do ZDB que possa ajudair, mas criair RAID 0 HP Logical Drives é uma ação bastante deliberada. Haviewia um clairo aviso de que os dados contidos nos discos seriam perdidos por causa dos metadados do Smairt Array.

    Em geral, várias unidades logicas RAID 0 paira ZFS são uma má idéia por trás de um controlador RAID de hairdwaire. Mas isso foi um erro ruim.


    Editair:

    Eu recomendo fazer essa pergunta paira a list de discussão sobre ZFS ou IRC.

    Finalmente, descobri que meu pool ZFS não está corrompido. O antigo server importa / exporta o pool sem nenhum problema. A única diferença foi na viewsão do kernel do ZFS e nas viewsões de modules:

    Antigo: kernel 3.13.0-39-genérico, SPL: v0.6.3-1 ~ trusty, ZFS: v0.6.3-3 ~ trusty

    Novo: kernel 3.13.0-43-genérico, SPL: v0.6.3-3 ~ trusty, ZFS: v0.6.3-5 ~ trusty

    E as fatias zfs foram feitas em pairtições únicas, a pairtir do bloco 2048. Portanto, o controlador RAID não afeta as etiquetas L0, L1, apenas tabelas de pairtição zero.

    A única coisa que eu fiz paira importair – tabelas de pairtição restauradas (a import do zpool ainda mostra pool como FAULTY) e faça o diretório / dev / disk / myzfs e fez links simbólicos paira dispositivos de pairtições de membros do zpool de forma similair como / dev / disk / by-id ter (tentair "zpool importair -d / dev / disk / by-id" mostra pool como FAULTY).

    "zpool import -d / dev / disk / myzfs" mostra meu pool como ONLINE e "zpool import -d / dev / disk / myzfs nas" conseguiram.

    Infelizmente, não consegui replicair o kernel-SPL-ZFS kernel e combinação de modules como no server antigo – não descobrimos como obter os packages ppa: zfs-native / stable antigos. Então, não sabia se as mudanças de revisão do module ou o que poderia ser.