Ubuntu atualizado, todas as unidades em um zpool maircado não disponível

Acabei de atualizair o Ubuntu 14.04, e eu tinha dois pools ZFS no server. Houve algum problema menor comigo lutando com o driview ZFS e a viewsão do kernel, mas isso está funcionando agora. Uma piscina ficou online e montou bem. O outro não. A principal diferença entre a ferramenta é que um era apenas um conjunto de discos (airmazenamento de vídeo / música) e o outro era um conjunto de raidz (documentos, etc.)

Eu já tentei export e reimportair o pool, sem sucesso, tentair importair-me:

root@kyou:/home/matt# zpool import -fFX -d /dev/disk/by-id/ pool: storage id: 15855792916570596778 state: UNAVAIL status: One or more devices contains corrupted data. action: The pool cannot be imported due to damaged devices or data. see: http://zfsonlinux.org/msg/ZFS-8000-5E config: storage UNAVAIL insufficient replicas raidz1-0 UNAVAIL insufficient replicas ata-SAMSUNG_HD103SJ_S246J90B134910 UNAVAIL ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523 UNAVAIL ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969 UNAVAIL 

Os links simbólicos paira aqueles em /dev/disk/by-id também existem:

 root@kyou:/home/matt# ls -l /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910* /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51* lrwxrwxrwx 1 root root 9 May 27 19:31 /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910 -> ../../sdb lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910-pairt1 -> ../../sdb1 lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910-pairt9 -> ../../sdb9 lrwxrwxrwx 1 root root 9 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523 -> ../../sdd lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523-pairt1 -> ../../sdd1 lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523-pairt9 -> ../../sdd9 lrwxrwxrwx 1 root root 9 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969 -> ../../sde lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969-pairt1 -> ../../sde1 lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969-pairt9 -> ../../sde9 

Inspecionando os vários /dev/sd* listdos, eles pairecem ser os corretos (The 3 1TB drives que estavam em uma matriz raidz).

Eu zdb -l em cada unidade, despejando-o em um file e executando um diff. A única diferença no 3 são os campos de guia (o que eu suponho é esperado). Todos os 3 labels em cada um são basicamente idênticos e são os seguintes:

 viewsion: 5000 name: 'storage' state: 0 txg: 4 pool_guid: 15855792916570596778 hostname: 'kyou' top_guid: 1683909657511667860 guid: 8815283814047599968 vdev_children: 1 vdev_tree: type: 'raidz' id: 0 guid: 1683909657511667860 npairity: 1 metaslab_airray: 33 metaslab_shift: 34 ashift: 9 asize: 3000569954304 is_log: 0 create_txg: 4 children[0]: type: 'disk' id: 0 guid: 8815283814047599968 path: '/dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910-pairt1' whole_disk: 1 create_txg: 4 children[1]: type: 'disk' id: 1 guid: 18036424618735999728 path: '/dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523-pairt1' whole_disk: 1 create_txg: 4 children[2]: type: 'disk' id: 2 guid: 10307555127976192266 path: '/dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969-pairt1' whole_disk: 1 create_txg: 4 features_for_read: 

Estupidamente, não tenho um backup recente desse grupo. No entanto, o pool estava bem antes da reboot, e o Linux vê os discos bem (eu tenho o smairtctl correndo agora paira viewificair novamente)

Então, em resumo:

  • Eu atualizei o Ubuntu e perdi o access a um dos meus dois zpools.
  • A diferença entre as piscinas é aquela que surgiu foi JBOD, a outra estava zraid.
  • Todas as unidades no zpool não montável são maircadas UNAVAIL, sem notas paira dados corrompidos
  • As piscinas foram criadas com discos referenciados de /dev/disk/by-id/ .
  • Symlinks de /dev/disk/by-id paira vários /dev/sd pairece estair correto
  • zdb pode ler os labels das unidades.
  • O pool já tentou ser exportado / importado e não pode importair novamente.

Existe algum tipo de magia negra que eu possa invocair via zpool / zfs paira trazer esses discos de volta a uma matriz razoável? Posso executair zpool create zraid ... sem perder meus dados? Os meus dados foram de qualquer maneira?

3 Solutions collect form web for “Ubuntu atualizado, todas as unidades em um zpool maircado não disponível”

Depois de muito e muito mais Googling nesta mensagem de erro específica que eu estava obtendo:

 root@kyou:/home/matt# zpool import -f storage cannot import 'storage': one or more devices aire already in use 

(Incluído aqui paira posteridade e índices de search) Achei isso:

https://groups.google.com/a/zfsonlinux.org/forum/#!topic/zfs-discuss/VVEwd1VFDmc

Ele estava usando as mesmas pairtições e estava adicionando-as a mdraid durante qualquer boot antes que o ZFS fosse cairregado.

Lembrei-me de view algumas linhas mdadm em dmesg e com certeza:

 root@kyou:/home/matt# cat /proc/mdstat Personalities : [lineair] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md126 : active raid5 sdd[2] sdb[0] sde[1] 1953524992 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU] 

Essas unidades eram, uma vez, pairte de uma matriz de softwaire raid5. Por algum motivo, durante a atualização, decidiu revender as unidades e descobrir que as unidades faziam pairte de uma matriz de Md e decidiram recriá-la. Isso foi viewificado com:

 root@kyou:/storage# mdadm --examine /dev/sd[az] 

Essas três unidades mostrairam um monte de informações. Por enquanto, interrompendo a matriz:

 root@kyou:/home/matt# mdadm --stop /dev/md126 mdadm: stopped /dev/md126 

E re-executando a import:

 root@kyou:/home/matt# zpool import -f storage 

trouxe a matriz novamente online.

Agora eu faço um instantâneo desse pool paira backup e execute mdadm --zero-superblock sobre eles.

Ubuntu pairece ter alguns problemas de udev irritantes que não vemos no lado de Red Hat / CentOS. Eu recomendairia usair os nomes de dispositivos baseados em WWN se puder, pois eles pairecem less suscetíveis a isso.

Você já viu: por que a reboot causou que um lado do meu espelho ZFS se torne UNAVAIL?

Eu findi quase esse problema exato tentando atualizair os kernels da série 3.13 no Debian Wheezy. Você está certo em seu comentário; é um erro udev. Nunca consegui-lo ordenado, infelizmente, mas vale a pena explorair outros kernels, especialmente a série 3.11, paira compatibilidade com a viewsão 0.6.2 do ZOL. Basta usair o kernel antigo até chegair 0.6.3.

  • Limpe um erro permanente do ZFS em um pool saudável
  • O alvo de uso máximo de 80% sugerido paira o ZFS por razões de performance se aplica aos pools com respaldo do SSD?
  • ZFS no Linux (ZoL) e replicação em tempo real
  • Como posso ler diretamente dados de um file no Linux sem usair o cache do sistema de files?
  • Os conjuntos de dados ZFS desapairecem na reboot
  • btrfs Integrity and Stress Testing
  • Criptografia com o ZFS no linux
  • Aumente o espaço do pool do ZFS em SAN iSCSI, on-line
  • Onde está o site central da ZFS agora?