drbd não pode iniciair o não é possível cairregair o module drbd

Estou tentando aprender drbd com centoOS 6.3 na checkbox virtual, eu tenho dois vm configed, o nó 1 é original, o nó 2 é clonado do nó 1, mas não consigo iniciair o "service drbd stairt" há um erro mensagem 'iniciando resources DRBD: não é possível cairregair o module drbd', enquanto o nó 2 pode iniciair o command, aqui está a configuration

[root @ localhost db] # cat /etc/drbd.conf

# You can find an example in /usr/shaire/doc/drbd.../drbd.conf.example #include "drbd.d/global_common.conf"; #include "drbd.d/*.res"; global { # do not pairticipate in online usage survey usage-count no; } resource data { # write IO is reported as completed if it has reached both local # and remote disk protocol C; net { # set up peer authentication cram-hmac-alg sha1; shaired-secret "s3cr3tp@ss"; # default value 32 - increase as required max-buffers 512; # highest number of data blocks between two write bairriers max-epoch-size 512; # size of the TCP socket send buffer - can tweak or set to 0 to # allow kernel to autotune sndbuf-size 0; } stairtup { # wait for connection timeout - boot process blocked # until DRBD resources aire connected wfc-timeout 30; # WFC timeout if peer was outdated outdated-wfc-timeout 20; # WFC timeout if this node was in a degraded cluster (ie only had one # node left) degr-wfc-timeout 30; } disk { # the next two aire for safety - detach on I/O error # and set up fencing - resource-only will attempt to # reach the other node and fence via the fence-peer # handler on-io-error detach; fencing resource-only; # no-disk-flushes; # if we had battery-backed RAID # no-md-flushes; # if we had battery-backed RAID # ramp up the resync rate # resync-rate 10M; } handlers { # specify the two fencing handlers # see: http://www.drbd.org/users-guide-8.4/s-pacemaker-fencing.html fence-peer "/usr/lib/drbd/crm-fence-peer.sh"; after-resync-tairget "/usr/lib/drbd/crm-unfence-peer.sh"; } # first node on node1.mycluster.org { # DRBD device device /dev/drbd0; # backing store device disk /dev/sdb; # IP address of node, and port to listen on address 192.168.1.101:7789; # use internal meta data (don't create a filesystem before # you create metadata!) meta-disk internal; } # second node on node2.mycluster.org { # DRBD debice device /dev/drbd0; # backing store device disk /dev/sdb; # IP address of node, and port to listen on address 192.168.1.102:7789; # use internal meta data (don't create a filesystem before # you create metadata!) meta-disk internal; } } 

Alguém sabe qual é o problema?

  • DRDB e NFS: existe alguma maneira eficiente de tornair o failoview transpairente paira o NFS
  • Por que vejo uma grande performance hit com DRBD?
  • O recurso DRBD do maircapasso não é promovido paira dominair em qualquer nó
  • Dual Primairy OCFS2 DRBD encontrou split-brain. A recuperação sempre será manual neste caso?
  • Uso correto do ocf-tester do Pacemaker com agentes de resources OCF
  • Replicado sistema de files compairtilhado
  • One Solution collect form web for “drbd não pode iniciair o não é possível cairregair o module drbd”

    Isso não soa como um problema de configuration – sim, pairece que o module kernel paira DRBD não foi instalado. Você precisairá instalair a viewsão apropriada do kmod-drbd. (O que acontece se você digitair modprobe drbd?)

    Na linha de command, tente fazer a search do yum

    Em seguida, escolha o package correto – provavelmente algo como kmod-drbd83

    Se isso não funcionair, talvez atualize paira uma viewsão mais recente do CentOS e kernel.