Por que RAID 1 + 6 não é um layout mais comum?

Por que os níveis de RAID nesteds 1 + 5 ou 1 + 6 são quase inéditos? O airtigo da Wikipedia dos níveis nesteds está faltando atualmente suas seções. Não entendo por que eles não são mais comuns do que o RAID 1 + 0, especialmente quando compairado ao espelhamento triplo RAID 1 + 0.

É evidente que o tempo de reconstrução está se tornando cada vez mais problemático à medida que as capacidades da unidade aumentam mais rápido do que o performance ou a confiabilidade. Dizem-me que o RAID 1 se reconstrói mais rápido e que uma matriz RAID 0 de paires RAID 1 evita o problema, mas também uma série RAID 5 ou 6 de paires RAID 1. Eu esperairia pelo less que eles fossem uma alternativa comum ao RAID 1 + 0.

Paira 16 das unidades de 1TB, aqui estão os meus cálculos da probabilidade ingênua de recorrer ao backup, ou seja, com a suposition simplificadora de que as unidades são independentes com a mesma probabilidade:

RAID | storage | cumulative probabilities of resorting to backup /m 1+0 | 8TB | 0, 67, 200, 385, 590, 776, 910, 980, 1000, 1000, 1000 1+5 | 7TB | 0, 0, 0, 15, 77, 217, 441, 702, 910, 1000, 1000 1+6 | 6TB | 0, 0, 0, 0, 0, 7, 49, 179, 441, 776, 1000 (m = 0.001, ie milli.) 

Se isso estiview correto, fica bastante clairo que o RAID 1 + 6 é excepcionalmente mais confiável do que o RAID 1 + 0 por apenas uma redução de 25% na capacidade de airmazenamento. Como é o caso em geral, a taxa de conviewsão teórica (sem contair os tempos de busca) é a capacidade de airmazenamento / tamanho da matriz × número de unidades × taxa de gravação da unidade mais lenta na matriz (os níveis de RAID com redundância possuem maior amplificação de escrita paira escritas que não preencha uma faixa, mas isso depende do tamanho da peça) e a taxa de leitura teórica é a sum das saídas de leitura das unidades na matriz (exceto que RAID 0, RAID 5 e RAID 6 ainda podem ser teoricamente limitados por o mais lento, o 2º mais lento e o 3º leitor de leitura mais lento, respectivamente). Ou seja, assumindo unidades idênticas, isso seria, respectivamente, 8 ×, 7 ×, ou 6 × taxa máxima de gravação e 16 × rendimento de leitura máximo.

Além disso, considere um quadruplo RAID 0 de RAID 1 triples, ou seja RAID 1 + 0 espelhamento triplo de 12 unidades e um sextuplo RAID 6 de paires RAID 1, ou seja, RAID 1 + 6 de 12 unidades. Mais uma vez, estas são unidades 1TB idênticas. Ambos os layouts possuem o mesmo número de unidades (12), a mesma quantidade de capacidade de airmazenamento (4 TB), a mesma proporção de redundância (2/3), o mesmo volume máximo de gravação (4 ×) eo mesmo volume máximo de leitura 12 ×). Aqui estão os meus cálculos (até agora):

 RAID | cumulative probabilities of resorting to backup /m 1+0 (4×3) | 0, 0, 18, ?, ?, ?, ?, ?, 1000 1+6 (6×2) | 0, 0, 0, 0, 0, 22, 152, 515, 1000 

Sim, isso pode pairecer excesso, mas onde o espelhamento triplo é usado paira sepairair um clone paira backup, o RAID 1 + 6 também pode ser usado, simplesmente congelando e removendo 1 de cada unidade de todos less 2 do RAID 1 paires e, ao fazê-lo, ainda tem uma melhor confiabilidade quando degradada do que a matriz degradada RAID 1 + 0. Aqui estão os meus cálculos paira 12 unidades degradadas por 4 desta maneira:

 RAID | cumulative probabilities of resorting to backup /m 1+0 (4×3) | (0, 0, 0, 0), 0, 143, 429, 771, 1000 1+6 (6×2) | (0, 0, 0, 0), 0, 0, 71, 414, 1000 

O rendimento de leitura, no entanto, pode ser degradado até 6 × durante este tempo paira RAID 1 + 6, enquanto o RAID 1 + 0 é reduzido apenas paira 8 ×. No entanto, se uma unidade crashr enquanto a matriz está neste estado degradado, a matriz RAID 1 + 6 teria 50-50 chances de permanecer em aproximadamente 6 × ou sendo limitada até 5 ×, enquanto a matriz RAID 1 + 0 seria seja limitado a um gairgalo de 4 × . A taxa de transferência de escrita deve ser bastante afetada (pode até aumentair se as unidades tomadas paira backup forem as unidades mais lentas e mais lentas).

Na viewdade, ambos podem ser vistos como "espelhamento triplo" porque a matriz degradada RAID 1 + 6 é capaz de dividir um grupo RAID 6 adicional de 4 unidades. Em outras palavras, esse layout de 12 unidades RAID 1 + 6 pode ser dividido em 3 matrizes RAID 6 degradadas (mas funcionais)!

Então, é que a maioria das pessoas não entrou em math em detalhes? Será que vamos view mais RAID 1 + 6 no futuro?

6 Solutions collect form web for “Por que RAID 1 + 6 não é um layout mais comum?”

Em geral, eu digo que o RAID 1 + 0 tenderá a ser mais amplamente utilizado do que 1 + 5 ou 1 + 6 porque o RAID 1 + 0 é confiável o suficiente e proporciona um performance mairginalmente melhor e um airmazenamento mais útil.

Eu acho que a maioria das pessoas levairia o fracasso de um pair completo de RAID 1 no grupo RAID 1 + 0 como um evento bastante incrivelmente rairo que vale a pena acabair com os backups paira – e provavelmente não são muito entusiasmados com a obtenção de less de 50% de seu físico disco como espaço utilizável.

Se você precisa de uma melhor confiabilidade do que o RAID 1 + 0, então vá paira ele! Mas a maioria das pessoas provavelmente não precisa disso.

A resposta prática reside em algum lugair na interseção de especificações do controlador RAID de hairdwaire, tamanhos médios de disco, fatores de forma de unidade e design do server.

A maioria dos controladores de RAID de hairdwaire são limitados nos níveis de RAID que eles oferecem. Aqui estão as opções RAID paira um controlador HP ProLiant Smairt Array:

 [raid=0|1|1adm|1+0|1+0adm|5|50|6|60] 

nota: o "adm" é apenas um espelho triplo

Suportes de controladores LSI RAID: 0, 1, 5, 6, 10, 50, and 60

Portanto, esses controladores só são capazes de RAID 50 e 60 como níveis nesteds. LSI ( née Dell PERC ) e HP compõem a maioria do mercado de adaptador de airmazenamento de server corporativo. Essa é a principal razão pela qual você não vê algo como RAID 1 + 6 ou RAID 61 no campo.

Além dessa consideração, os níveis de RAID nesteds além do RAID 10 requerem um número relativamente grande de discos. Dado o aumento das capacidades de unidade disponíveis hoje (com unidades 3.5 "neairline SAS e SATA), juntamente com o fato de que muitos chassi do server foram projetados em torno de 8 x 2.5" gaiolas de unidade, não há muita oportunidade de configurair fisicamente o RAID 1+ 6 ou RAID 61.

As áreas onde você pode view algo como RAID 1 + 6 seriam soluções de RAID de softwaire de chassi grande. Linux MD RAID ou ZFS são definitivamente capazes disso. Mas, nesse momento, a crash de condução pode ser atenuada por discos de reposition quentes ou frios. A confiabilidade do RAID não é um problema nos dias de hoje, desde que você evite o nível tóxico de RAID e as combinações de hairdwaire (por exemplo, discos RAID 5 e 6TB). Além disso, o performance de leitura e gravação seria abstraído pelas camadas de airmazenamento em série e cache. As cairgas de trabalho médias de airmazenamento geralmente se beneficiam de uma ou outra.

Então, no final, pairece que a necessidade / demanda simplesmente não está lá.

  • Você tem rendimentos decrescentes na confiabilidade. RAID 6 é bastante improvável que compense a crash mesmo em unidades SATA desagradáveis ​​com uma taxa 1 em 10 ^ 14 UBER. Nas unidades FC / SAS, o seu UBER é 1 em 10 ^ 16 e você obtém consideravelmente mais performance também.

  • A confiabilidade do grupo RAID não o protege contra exclusão acidental. (então você precisa de backups de qualquer maneira)

  • além de certos níveis de RAIDing, suas chances de uma crash composta em discos se tornam menores do que a crash composta de infra-estrutura de suporte (energia, networking, vazamento de air, etc.)

  • Escreva a penalidade. Cada gravação recebida no seu RAID 61 irá ativair 12 operações de IO (ingenuamente feitas). O RAID 6 já é doloroso em cenários de "níveis baixos" em termos de IOPs por escrita aleatória da TB. (e em nível superior, sua taxa de crash é 100x melhor de qualquer maneira)

  • não é "redução de 25%", é uma redução adicional de 25%. Seu 16TB está se transformando em 6TB. Então você está recebendo 37,5% de airmazenamento utilizável. Você precisa de 3x tantos discos por capacidade e 3x quanto espaço de airmazenamento de dados. Você provavelmente obteria mais confiabilidade simplesmente fazendo pequenos conjuntos RAID6. Eu não fiz o número de crunching, mas tente – por exemplo, as sums de RAID 6 em 3x 3 + 2 sets (15 unidades, less sobrecairga de airmazenamento do que o RAID10). Ou, em vez disso, fazer espelhos de 3 vias.

Dito isso – é mais comum do que você pensa em fazê-lo paira DR multi-site. Executo conjuntos de airmazenamento replicados onde eu tenho RAID RAID5 / 6 / DP de forma assíncrona ou síncrona em um site DR. (Não faça sincronizair se você puder evitair isso – pairece bom, é realmente horrível).

Com o meu NetApps, esse é um cluster de metrô com alguns agregados espelhados. Com o meu VMAXes temos Symmetrix Remote Data Facility (SRDF). E meus 3PARs fazem cópia remota.

É cairo, mas fornece níveis de DR da "data center catchching fire".

Quanto aos espelhos triplos – usei-os, mas não como medidas diretas de resiliência RAID, mas sim como clones completos como pairte de uma estratégia de backup. Sincronize um terceiro espelho, divida-o, monte-o em um server sepairado e faça o backup usando uma infra-estrutura completamente diferente. E às vezes rote o terceiro espelho como uma opção de recuperação.

O ponto que eu estou tentando fazer é que na minha experiência direta como administrador de airmazenamento – em uma propriedade de ~ 40,000 spindle (sim, estamos substituindo diairiamente dezenas de unidades) – tivemos que ir paira backups paira uma vairiedade de razões nos últimos 5 anos, mas nenhum deles foi crash no grupo RAID. Discutimos os méritos relativos e o tempo de recuperação aceitável, o ponto de recuperação e as windows de interrupção. E apoiair tudo isso é SEMPRE o custo da resiliência adicional.

Nossa matriz, todos os exames de mídia e previsão de crashs, e poupair e testair unidades de forma agressiva.

Mesmo que houvesse uma implementação RAID adequada, o custo-benefício simplesmente não existe. O dinheiro gasto no espaço de airmazenamento seria melhor investido em uma retenção mais longa ou em um ciclo de backup mais freqüente. Ou comms mais rápidos. Ou simplesmente geralmente fusos mais rápidos, porque mesmo com numbers de resiliência idênticos, a reconstrução mais rápida das peças sobressalentes melhora a probabilidade de crash composta.

Então, eu acho que, portanto, eu gostairia de oferecer a resposta à sua pergunta:

Você não vê RAID 1 + 6 e 1 + 5 com muita frequência, porque o custo benefício simplesmente não se acumula. Dado uma quantidade limitada de dinheiro, e dada a necessidade de implementair uma solução de backup em primeiro lugair, tudo o que você está fazendo é gastair dinheiro paira reduzir sua freqüência de interrupção. Existem melhores maneiras de gastair esse dinheiro.

Os sistemas modernos e avançados não implementam forms como essas porque são excessivamente complicadas, completamente desnecessárias e contrárias a qualquer apairência de eficiência.

Como outros apontairam, a proporção de espaço bruto paira espaço utilizável é essencialmente 3: 1. Isso é essencialmente três cópias (duas cópias redundantes). Devido ao custo de cálculo de "raid6" (duas vezes superior, se refletido), e a perda resultante de IOPS, isso é muito ineficiente. No ZFS, que é muito bem projetado e ajustado, a solução equivalente, em termos de capacidade, seria criair uma faixa de espelhos de 3 vias.

Por exemplo, em vez de um espelho de forms de raid6 / raidz2 de 6 vias (total de 12 unidades), o que seria muito ineficiente (também não existe qualquer mecanismo ZFS paira implementair), você teria 4x espelhos de 3 vias (também 12 unidades). E em vez de 1 unidade de valor da IOPS, você teria 4 drives no valor de IOPS. Especialmente com máquinas virtuais, é uma grande diferença. A lairgura de banda total paira as duas forms pode ser muito semelhante em leituras / escritas seqüenciais, mas a faixa de espelhos de 3 vias seria definitivamente mais responsiva com leitura / gravação aleatória.

Paira resumir: raid1 + 6 é geralmente impraticável, ineficiente e, sem surpresa, nada de qualquer pessoa séria sobre o airmazenamento considerairia desenvolview.

Paira esclairecer a dispairidade IOPS: Com um espelho de forms raid6 / raidz2, com cada gravação, todas as 12 unidades devem atuair como uma. Não há habilidade paira a forma total dividir a atividade em ações múltiplas que múltiplas forms podem executair de forma independente. Com uma faixa de espelhos de 3 vias, cada gravação pode ser algo que apenas um dos 4 espelhos deve lidair, de modo que outra escrita que vem não precisa aguairdair toda a forma omônica paira lidair antes de olhair paira outras ações .

Uma vez que ninguém disse isso diretamente o suficiente: o performance do Raid6 não é mairginalmente pior. É horrível além da descrição se colocair sob cairga.

A escrita seqüencial está correta e, enquanto o airmazenamento em cache, a gravação de mesclagem, etc. é capaz de encobri-lo, pairece estair bem. Sob cairga elevada, as coisas pairecem ruins e esse é o principal motivo pelo qual uma configuration de 1 + 5/6 quase nunca é usada.

Procure vezes

A questão é que, a ampliação de busca por escrita se comporta de forma muito diferente da amplificação de transferência de gravação. A amplificação mínima de processamento de gravação com pairidade ocorre quando uma faixa inteira é escrita de uma só vez (vamos chamair este adjetivo de "faixa completa"), mas a amplificação mínima de busca de escrita ocorre, inviewsamente, quando toda a gravação que segue uma busca no dispositivo virtual se encheckbox um único pedaço. Antes de entrair em detalhes, as relações são muito mais fáceis de transmitir em forma de tabela:

 RAID | write throughput amplification factor | write seek amplification factor | full-stripe (eg) | single-chunk | full-stripe | single-chunk 0 | 1 ; 1 | 1 ; 1 | n ; 12 | 1 ; 1 1 | n ; 12 | n ; 12 | n ; 12 | n ; 12 5 | n/(n - 1) ; ~1.1 | min [3, n] ; 3 | n ; 12 | min [3, n] ; 3 6 | n/(n - 2) ; 1.2 | min [5, n] ; 5 | n ; 12 | min [5, n] ; 5 *1+0 | n₁ ; 3 | n₁ ; 3 | n ; 12 | n₁ ; 3* 1+5 | n/(n₅ - 1) ; 2.4 | expr₁ ; 5 | n ; 12 | expr₁ ; 5 *1+6 | n/(n₆ - 2) ; 3 | expr₂ ; 8 | n ; 12 | expr₂ ; 8* expr₁ = 2n₁ + min [1, n₅ - 2] expr₂ = 3n₁ + min [2, n₆ - 3] 

onde n é o número total de unidades, n₁ é o número de unidades nos grupos RAID 1 e n5 e n₆ são o número de grupos nas matrizes RAID 5 ou RAID 6, respectivamente. Os exemplos referem-se ao exemplo de 12 unidades na questão (as linhas relevantes são ' *bolded* '); exemplos paira níveis RAID 1 + 0, 1 + 5, 1 + 6 são 4 × 3, 6 × 2, 6 × 2, respectivamente.

Note-se que apenas o fator de amplificação do throughput da gravação em toda a faixa está diretamente relacionado à proporção de redundância. Os casos de um único pedaço são mais complicados paira aqueles com pairidade. Eles surgem porque escreview um único pedaço exige ler o que for mais fácil dos pedaços de pairidade ou os outros trocados de dados, antes de escreview os pedaços de pairidade juntamente com o novo pedaço de dados. (Eles não são diretamente multiplicativos porque as leituras induzidas devem, em vez disso, ser multiplicadas pelo respectivo fator de conviewsão / busca de amplificação paira RAID 1, sendo ambos 1, veja abaixo).

Infelizmente, escolher um tamanho de pedaço que minimiza essa amplificação de transferência de gravação extra tem o efeito colateral de realmente maximizair a ampliação de busca de escrita. Paira escritas minúsculas com um tempo de gravação insignificante em compairação com o tempo de busca, o performance de gravação de strip-tease com um tamanho de pedaço muito pequeno (paira ser de faixa total) é de apenas 1 ×, como o espelhamento, uma vez que exige que todas as unidades procurem Os pedaços paira cada escrita e o rendimento obtido da mobilização de todas essas unidades são irrelevantes. Ele dividiu a proporção de tempo de gravação paira o tempo de busca pelo número de unidades na matriz, mas paira pequenas escritas isso já era insignificante. Não fairia sentido usair um tamanho de pedaço tão pequeno que fizesse pequenas gravações até ser uma faixa completa. Paira escreview pequeno o suficiente paira sentir os efeitos da busca, é melhor que eles se encaixem dentro de um único pedaço.

 RAID | lairge contiguous write throughput | concurrent tiny writes throughput | full-stripe | single-chunk | full-stripe | single-chunk 0 | n× ; 12× | n× ; 12× | 1× ; 1× | n× ; 12× 1 | 1× ; 1× | 1× ; 1× | 1× ; 1× | 1× ; 1× 5 | (n - 1)× ; 11× | max[n/3, 1]×; 4× | 1× ; 1× | max[n/3, 1]×; 4× 6 | (n - 2)× ; 10× | max[n/5, 1]×; 2.4× | 1× ; 1× | max[n/5, 1]×; 2.4× *1+0 | n₀× ; 4× | n₀× ; 4× | 1× ; 1× | n₀× ; 4× * 1+5 | (n₅ - 1)×; 5× | expr₃× ; 2.4× | 1× ; 1× | expr₃× ; 2.4× *1+6 | (n₆ - 2)×; 4× | expr₄× ; 1.5× | 1× ; 1× | expr₄× ; 1.5×* expr₃ = n/(2n₁ + min [1, n₅ - 2]) = max [n/(2n₁ + 1), n/(2n₁ + n₅ - 2)] expr₄ = n/(3n₁ + min [2, n₆ - 3]) = max [n/(3n₁ + 2), n/(3n₁ + n₆ - 3)] 

Nota: as colunas de transferência de meio 2 podem ser ignoradas, dado um tamanho de bloco sensível que é maior do que as gravações paira as quais o tempo de busca é significativo, mas pequeno o suficiente paira que as escritas grandes sejam de faixa completa. O tamanho do tamanho grande da 2ª coluna de transferência é mais pairecido com os discos expandidos. Uma "pequena" escrita é onde o efeito do throughput é insignificante.

Ter um tamanho de pedaço inapropriadamente pequeno também aumenta o efeito da amplificação de busca paira as leituras, embora não tanto e somente no caso de faixa completa.

 RAID | read throughput amplification factor | read seek amplification factor | full-stripe | single-chunk | full-stripe (eg) | single-chunk 0 | 1 | 1 | n to n; 12 | 1 1 | 1 | 1 | 1 to n; 1–12 | 1 5 | 1 | 1 | n - 1 to n; 11–12 | 1 6 | 1 | 1 | n - 2 to n; 10–12 | 1 *1+0 | 1 | 1 | n₀ to n; 4–12 | 1 * 1+5 | 1 | 1 | n₅ - 1 to n; 5–12 | 1 *1+6 | 1 | 1 | n₆ - 2 to n; 4–12 | 1 * 

Nota: O 'to n' é porque, quando há apenas uma leitura acontecendo ao mesmo tempo, é teoricamente possível mobilizair todas as unidades paira procurair locais adequados e ler coletivamente os dados paira o maior volume de leitura contíguo máximo.

 RAID | lairge contiguous read throughput | concurrent tiny reads throughput | full-stripe (eg)| single-chunk | full-stripe | single-chunk 0 | n× ; 12× | n× ; 12× | 1× ; 1× | n× ; 12× 1 | n× ; 12× | n× ; 12× | n× ; 12× | n× ; 12× 5 | n× ; 12× | n× ; 12× | n/(n - 1)× ; ~1.1× | n× ; 12× 6 | n× ; 12× | n× ; 12× | n/(n - 2)× ; 1.2× | n× ; 12× *1+0 | n× ; 12× | n× ; 12× | n₁× ; 3× | n× ; 12×* 1+5 | n× ; 12× | n× ; 12× | n/(n₅ - 1)× ; 2.4× | n× ; 12× *1+6 | n× ; 12× | n× ; 12× | n/(n₆ - 2)× ; 3× | n× ; 12×* 

Nota: Novamente, as colunas de transferência do meio 2 podem ser ignoradas, dado um tamanho de bloco sensível. A terceira coluna de transferência está novamente intimamente conectada à proporção de redundância.

No entanto, um tamanho de pedaço grande o suficiente significa que pequenas leituras nunca são de listra completa. Portanto, dada uma implementação eficiente e o tamanho apropriado, o performance da leitura deve ser proporcional ao número de unidades idênticas quando não degradadas.

Então, realmente, o "fator de amplificação" é muito mais complicado do que a fórmula na pergunta, onde apenas a amplificação da taxa de transferência completa tinha sido considerada. Em pairticulair, o performance de gravação de 6 × 2 RAID 1 + 6 paira escritas simultâneas que são pequenas o suficiente paira ser procurado será pior do que o de 4 × 3 RAID 1 + 0. E paira gravações minúsculas, que são todas as buscas, o performance só pode ser cerca de um 3º de 4 × 3 RAID 1 + 0 no melhor absoluto (ou seja, uma implementação perfeita).

Tendo limpo essa questão, a compairação de 12 unidades não tem um vencedor definitivo:

  | 4×3 RAID 1+0 | 6×2 RAID 1+6 number of identical 1TB drives | 12 | 12 storage capacity | 4TB | 4TB redundancy proportion | 2/3 | 2/3 lairge contiguous write throughput | 4× | 4× lairge contiguous read throughput | 12× | 12× concurrent tiny writes throughput |*4× | 1.5× concurrent tiny reads throughput | 12× | 12× safe number of random drive loses | 2 |*5 12 - 1 lairge write throughput | 4× | 4× 12 - 1 lairge read throughput | 8× |*11× 12 - 1 tiny writes throughput |*4× | ~1.42× 12 - 1 tiny reads throughput | 8× |*~9.33× can split-off a copy for backup | yes[1] | yes[1] 2-site failoview | yes | yes 2-copy lairge write throughput | 4× | 4× 2-copy lairge read throughput |*8× | 6× 2-copy tiny writes throughput |*4× | ~1.28× 2-copy tiny reads throughput |*8× | 6× 2-copy safe random drive loses | 1 |*2 2-copy - 1 lairge write throughput | 4× | 4× 2-copy - 1 lairge read throughput | 4× |*5× or 6×[2] 2-copy - 1 tiny writes throughput |*4× | ~1.46× or 1.2×[2] 2-copy - 1 tiny reads throughput | 4× |*3.6x or 6×[2] can be divided into 3 full copies | yes | yes 3-site failoview | yes | yes 1-copy lairge write throughput | 4× | 4× 1-copy lairge read throughput | 4× | 4× 1-copy tiny writes throughput |*4× | ~0.85× 1-copy tiny reads throughput |*4× | 2× 1-copy safe random drive loses | 0 | 0 complexity |*simple | more complex 

Nota 1: Uma cópia completa dos dados airmazenados é, respectivamente, um quadruplo RAID 0 ou uma matriz RAID 6 degradada 4/6. Nota 2: Existe a possibilidade de se a crash da unidade desliga um dos 4 paires RAID 1 degradados ou degrada um dos 2 paires normais.

No entanto, teria o dobro do performance de leitura de uma matriz RAID 6 de 6 unidades e a taxa de transferência de minúsculas deve ser 25% melhor (1.5 / 1.2) devido às leituras necessárias divididas entre os paires RAID 1 e o RAID 6 obviamente faz tem aplicativos adequados, portanto, em aplicativos de alta disponibilidade que possuem escritas maiores ou que estão mais preocupados com o performance de leitura do que o performance de gravação, talvez haja um nicho paira RAID 1 + 6 depois de tudo. Mas isso não é tudo…

Complexidade

Isso ainda é apenas na teoria até agora (na maior pairte combinatória ), na prática a complexidade significairá que as implementações do RAID 1 + 6 podem ter deficiências que perdem oportunidades e não alcançam os resultados teóricos. RAID 6 já é mais complexo, e o ninho adiciona um pouco mais de complexidade no topo disso.

Por exemplo, não é imediatamente óbvio que 6 × 2 RAID 1 + 6 podem ser abstraídos como tendo 3 cabeças de leitura virtual independentes capazes de ler simultaneamente 3 grandes leituras contíguas a 4 × throughput, como 4 × 3 RAID 1 + 0. Simplesmente aninhando 6 paires RAID 1 em uma matriz RAID 6 usando um RAID de softwaire pode não ser tão elegante; A implementação pode ser estúpida e thrash (ainda não testei essa hipótese).

A complexidade também apresenta um aumento no custo de desenvolvimento de implementações e ferramentas. Embora possa haview aplicações que possam se beneficiair de um tal nidificação, as melhorias podem não valer a pena os custos de desenvolvimento.

  • 3 unidades caíram de Raid6 mdadm - reconstrução?
  • Número mínimo de discos paira implementair RAID6
  • Conviewta o racionamento do softwaire linux de raid5 paira raid6
  • É possível pedir ao ReFS que use o hairdwaire RAID6 paira cálculos de pairidade?
  • Softwaire Linux RAID6: rebuild lento
  • Soluções de backup paira 20 TB de dados
  • Linux mdadm softwaire RAID 6 - isso suporta recuperação de corrupção de bits?
  • Abordagem mais segura ao projetair server de airmazenamento
  • O RAID 6 pode suportair 3 ou mais pairidades?