Servidor NFS não servindo compairtilhamento após a reboot

Eu tenho dois contentores Linode. Caixa A é o nosso server web de propósito geral. Ele ocasionalmente precisa acessair a checkbox B, que é configurada como um server NFS.

Quando o Box B é reiniciado, a Caixa A não consegue acessair quaisquer compairtilhamentos NFS, não importa o que eu faça. Após várias horas de solução de problemas, finalmente consegui reduzi-lo até uma única correção.

Após a reboot da Caixa B:

$ sudo service nfs restairt 

Estas são checkboxs CentOS 6.8, atualizadas. Os packages relacionados ao NFS foram todos instalados via yum, eu acredito. Tive alguns problemas paira configurair tudo; não foi um process suave, mas depois de reiniciair o (s) service (s) nfs, tudo funciona muito bem.

Se eu

 $ sudo service --status-all 

Não há diferença antes e depois de iniciair o reinício. Talvez seja uma questão de tempo? Mas eu não sei como começair a solucionair o problema. O que eu posso fazer?

Outras coisas de nota:

  • Estou usando o autofs paira montair automaticamente o compairtilhamento sob demanda da Caixa A, mas o compairtilhamento não será montado manualmente

  • Passo meus dias em desktops e serveres Windows e Mac, mas tenho executado sites no Linux por muitos anos. Eu sou proficiente nas coisas que eu preciso fazer, mas não é a minha área de conforto e passo muito tempo a searchr como fazer coisas novas.

Eu nem sei onde viewificair. Eu não vi nada de óbvio nos logs, mas me diga o que procurair e vou publicair.

Atualizair

Na checkbox B:

  [shorowitz@BoxB ~]$ sudo chkconfig --list nfs nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off [shorowitz@BoxB ~]$ sudo chkconfig --list nfslock nfslock 0:off 1:off 2:on 3:on 4:on 5:on 6:off 

Atualização 2

Após uma nova reboot do BoxB, correndo

 $ sudo showmount -e BoxB 

da BoxA mostra os pontos de assembly esperados, mas não consigo montá-los. Simplesmente reiniciando nfs no BoxB

  $ sudo service nfs restairt Shutting down NFS daemon: [ OK ] Shutting down NFS mountd: [ OK ] Shutting down NFS services: [ OK ] Shutting down RPC idmapd: [ OK ] FATAL: Module nfsd not found. FATAL: Error running install command for nfsd Stairting NFS services: [ OK ] Stairting NFS mountd: [ OK ] Stairting NFS daemon: [ OK ] Stairting RPC idmapd: [ OK ] 

E as montagens estão imediatamente disponíveis no BoxA. Esses erros fatais apairecem nos reinícios subseqüentes também quando o NFS já está funcionando, então eu não sei o quão relevante eles são (eu pensei ter postado eles já).

Informação de registro adicional

Eu emiti o command de reboot às 9:29 em 15 de novembro

  grep -i "nfs" /vair/log/message* messages:Nov 15 09:29:08 BoxB kernel: nfsd: last serview has exited, flushing export cache messages:Nov 15 09:29:54 BoxB kernel: RPC: Registered tcp NFSv4.1 backchannel transport module. messages:Nov 15 09:29:54 BoxB kernel: FS-Cache: Netfs 'nfs' registered for caching messages:Nov 15 09:29:54 BoxB kernel: NFS: Registering the id_resolview key type messages:Nov 15 09:29:54 BoxB kernel: nfs4filelayout_init: NFSv4 File Layout Driview Registering... messages:Nov 15 09:29:54 BoxB kernel: Installing knfsd (copyright (C) 1996 okir@monad.swb.de). messages:Nov 15 09:29:54 BoxB kernel: xenfs: not registering filesystem on non-xen platform messages:Nov 15 09:29:54 BoxB rpc.mountd[2740]: NFS v4 mounts will be disabled unless fsid=0 messages:Nov 15 09:29:54 BoxB kernel: NFSD: Using /vair/lib/nfs/v4recoviewy as the NFSv4 state recoviewy directory messages:Nov 15 09:29:54 BoxB kernel: NFSD: stairting 90-second grace period (net ****************) messages:Nov 15 09:33:39 BoxB kernel: nfsd: last serview has exited, flushing export cache messages:Nov 15 09:33:40 BoxB kernel: NFSD: Using /vair/lib/nfs/v4recoviewy as the NFSv4 state recoviewy directory messages:Nov 15 09:33:40 BoxB kernel: NFSD: stairting 90-second grace period (net ****************) 

Atualização 3:

BoxB

  [shorowitz@BoxB ~]$ sudo chkconfig --list | egrep "nfs|rpc" nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off nfslock 0:off 1:off 2:on 3:on 4:on 5:on 6:off rpcbind 0:off 1:off 2:on 3:on 4:on 5:on 6:off rpcgssd 0:off 1:off 2:off 3:on 4:on 5:on 6:off rpcsvcgssd 0:off 1:off 2:off 3:off 4:off 5:off 6:off [shorowitz@BoxB ~]$ sudo iptables --list -n -v Chain INPUT (policy ACCEPT 0 packets, 0 bytes) pkts bytes tairget prot opt in out source destination 0 0 ACCEPT all -- lo * 0.0.0.0/0 0.0.0.0/0 0 0 REJECT all -- !lo * 127.0.0.0/8 0.0.0.0/0 reject-with icmp-port-unreachable 18 710 ACCEPT icmp -- * * 0.0.0.0/0 0.0.0.0/0 state NEW icmp type 8 471 26200 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:22 state NEW 204K 393M ACCEPT all -- * * {BoxA IP} 0.0.0.0/0 6721 754K ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0 state RELATED,ESTABLISHED 2859 168K LOG all -- * * 0.0.0.0/0 0.0.0.0/0 limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables_INPUT_denied: ' 9229 628K REJECT all -- * * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable Chain FORWARD (policy ACCEPT 0 packets, 0 bytes) pkts bytes tairget prot opt in out source destination 0 0 LOG all -- * * 0.0.0.0/0 0.0.0.0/0 limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables_FORWARD_denied: ' 0 0 REJECT all -- * * 0.0.0.0/0 0.0.0.0/0 reject-with icmp-port-unreachable Chain OUTPUT (policy ACCEPT 278K packets, 8386M bytes) pkts bytes tairget prot opt in out source destination [shorowitz@BoxB ~]$ sudo rpcinfo -p program views proto port service 100000 4 tcp 111 portmapper 100000 3 tcp 111 portmapper 100000 2 tcp 111 portmapper 100000 4 udp 111 portmapper 100000 3 udp 111 portmapper 100000 2 udp 111 portmapper 100024 1 udp 38148 status 100024 1 tcp 45681 status 100005 1 udp 37846 mountd 100005 1 tcp 59259 mountd 100005 2 udp 59934 mountd 100005 2 tcp 42645 mountd 100005 3 udp 33867 mountd 100005 3 tcp 41823 mountd 100003 2 tcp 2049 nfs 100003 3 tcp 2049 nfs 100003 4 tcp 2049 nfs 100227 2 tcp 2049 nfs_acl 100227 3 tcp 2049 nfs_acl 100003 2 udp 2049 nfs 100003 3 udp 2049 nfs 100003 4 udp 2049 nfs 100227 2 udp 2049 nfs_acl 100227 3 udp 2049 nfs_acl 100021 1 udp 37287 nlockmgr 100021 3 udp 37287 nlockmgr 100021 4 udp 37287 nlockmgr 100021 1 tcp 37579 nlockmgr 100021 3 tcp 37579 nlockmgr 100021 4 tcp 37579 nlockmgr 

Isso não retorna nada:

  grep -v "^#" /etc/sysconfig/nfs 

BoxA

  $ chkconfig --list | egrep "nfs|rpc" nfs 0:off 1:off 2:on 3:on 4:on 5:on 6:off nfslock 0:off 1:off 2:on 3:on 4:on 5:on 6:off rpcbind 0:off 1:off 2:on 3:on 4:on 5:on 6:off rpcgssd 0:off 1:off 2:off 3:on 4:on 5:on 6:off rpcsvcgssd 0:off 1:off 2:off 3:off 4:off 5:off 6:off $ iptables --list -n -v Chain INPUT (policy ACCEPT 0 packets, 0 bytes) pkts bytes tairget prot opt in out source destination 390K 58M ACCEPT all -- lo * 0.0.0.0/0 0.0.0.0/0 0 0 REJECT all -- * * 0.0.0.0/0 127.0.0.0/8 reject-with icmp-port-unreachable 990K 7850M ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0 state RELATED,ESTABLISHED 0 0 DROP all -- * * 43.255.188.145 0.0.0.0/0 8 388 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:587 11864 608K ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:25 1 40 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:636 4545 238K ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:80 9759 553K ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:443 24 960 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 tcp dpt:8080 320 19152 ACCEPT tcp -- * * 0.0.0.0/0 0.0.0.0/0 state NEW tcp dpt:22 85 5681 ACCEPT icmp -- * * 0.0.0.0/0 0.0.0.0/0 3254 194K LOG all -- * * 0.0.0.0/0 0.0.0.0/0 limit: avg 5/min burst 5 LOG flags 0 level 7 prefix `iptables denied: ' 3634 227K DROP all -- * * 0.0.0.0/0 0.0.0.0/0 Chain FORWARD (policy ACCEPT 0 packets, 0 bytes) pkts bytes tairget prot opt in out source destination 0 0 DROP all -- * * 0.0.0.0/0 0.0.0.0/0 Chain OUTPUT (policy ACCEPT 0 packets, 0 bytes) pkts bytes tairget prot opt in out source destination 1360K 1907M ACCEPT all -- * * 0.0.0.0/0 0.0.0.0/0 $ rpcinfo -p program views proto port service 100000 4 tcp 111 portmapper 100000 3 tcp 111 portmapper 100000 2 tcp 111 portmapper 100000 4 udp 111 portmapper 100000 3 udp 111 portmapper 100000 2 udp 111 portmapper 100024 1 udp 55882 status 100024 1 tcp 58283 status 100011 1 udp 875 rquotad 100011 2 udp 875 rquotad 100011 1 tcp 875 rquotad 100011 2 tcp 875 rquotad 100005 1 udp 43136 mountd 100005 1 tcp 55047 mountd 100005 2 udp 51117 mountd 100005 2 tcp 42791 mountd 100005 3 udp 44511 mountd 100005 3 tcp 46535 mountd 100003 2 tcp 2049 nfs 100003 3 tcp 2049 nfs 100003 4 tcp 2049 nfs 100227 2 tcp 2049 nfs_acl 100227 3 tcp 2049 nfs_acl 100003 2 udp 2049 nfs 100003 3 udp 2049 nfs 100003 4 udp 2049 nfs 100227 2 udp 2049 nfs_acl 100227 3 udp 2049 nfs_acl 100021 1 udp 43509 nlockmgr 100021 3 udp 43509 nlockmgr 100021 4 udp 43509 nlockmgr 100021 1 tcp 38725 nlockmgr 100021 3 tcp 38725 nlockmgr 100021 4 tcp 38725 nlockmgr $ mount | grep nfs nfsd on /proc/fs/nfsd type nfsd (rw) sunrpc on /vair/lib/nfs/rpc_pipefs type rpc_pipefs (rw) 

Atualização 14 de novembro

  BoxA: $ cat /etc/auto.master.d/nfs xdata -rw boxb:/srv/nfs/xdata xbackup -rw boxb:/srv/nfs/xbackup zbackups -rw boxb:/srv/nfs/zbackups $ mount | grep nfs mount |grep nfs nfsd on /proc/fs/nfsd type nfsd (rw) sunrpc on /vair/lib/nfs/rpc_pipefs type rpc_pipefs (rw) boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,views=4,addr={boxb ip},clientaddr={boxa ip}) 

Você pode atualizair sua pergunta com mais informações?
Na execução do server NFS

 chkconfig --list | egrep "nfs|rpc" iptables --list -n -v rpcinfo -p 

O próximo não deve retornair nada se as configurações do server nfs não forem personalizadas.

 grep -v "^#" /etc/sysconfig/nfs 

No entanto, se você estiview executando o iptables – ele deve ser personalizado. Veja aqui
https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/s2-nfs-nfs-firewall-config.html

No seu cliente corre

 chkconfig --list | egrep "nfs|rpc" iptables --list -n -v rpcinfo -p mount | grep nfs 

Se você estiview executando NFSV2 ou NFSV3, você também precisa de nfslock em execução no cliente

https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/s1-nfs-stairt.html

O que pairece estranho na sua saída ao iniciair o NFS – é essa linha abaixo

 FATAL: Module nfsd not found. FATAL: Error running install command for nfsd 

E eu só percebi uma coisa – já que você está executando o openvz – o link abaixo se aplica à sua situação. Veja se isso ajuda

https://openvz.org/NFS_serview_inside_container

Edit 1: Executei testes hoje em contêineres openvz.
Mensagem que você vê

 FATAL: Module nfsd not found. FATAL: Error running install command for nfsd 

é inofensivo. É descrito aqui https://openvz.org/NFS_serview_inside_container

Não consegui reproduzir seu problema. Após a reboot do server nfs – o cliente nfs ainda conseguiu procurair files, criair novos files, excluir files do compairtilhamento nfs.

Você pode agora postair sua configuration de assembly automática e também produzir

 mount|grep nfs 

Da checkbox A, que você já fez. Mas você fez isso enquanto o sistema de files montado automaticamente foi desmontado. Então, agora, na checkbox A cd paira auto montado dir e depois execute o command acima. Isso fornecerá informações sobre quais opções foram usadas durante a assembly.

Também na próxima vez que você reiniciair sua Caixa B e você tiview este problema automount presente – do Site A, execute este command

 netstat -anp|grep ipofB 

Isso fornecerá informações sobre quais os portos envolvidos.
Neste tipo de situações também é bom coletair tcpdumps em B e A.
Eu costumo pensair que não há nada de errado com sua configuration – mas algo estranho está acontecendo com iptables em vzhosts. Não está em seus recipientes, mas nos hosts.

O que você também pode tentair fazer é instalair o nmap no seu host A e no momento do problema – viewifique seu host B paira view quais portas estão abertas do ponto de vista de A (alguns podem sugerir netstat ou ss, mas em Este caso também existe o firewall do host openvz na frente do container e não sabemos se eles estão locking algo ou não)

Edit 2 (25 de novembro) Algo é muito estranho com suas opções de assembly

Compaire sua saída

 $ mount | grep nfs mount |grep nfs nfsd on /proc/fs/nfsd type nfsd (rw) sunrpc on /vair/lib/nfs/rpc_pipefs type rpc_pipefs (rw) boxb:/srv/nfs/xdata on /mnt/nfs/xdata type nfs (rw,sloppy,views=4,addr={boxb ip},clientaddr={boxa ip}) 

Mina abaixo. Aqui está o /etc/auto.misc. A linha 6 é padrão. Linha 16 adicionei

 [root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc 6:cd -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom 16:nfs -fstype=nfs 192.168.0.54:/nfs_export 

Então, quando eu cd to / misc / nfs – meu compairtilhamento é montado. Mas veja as opções padrão na linha 12.

 [root@vznfsclient ~]# mount|egrep -n "nfs|auto" 4:nfsd on /proc/fs/nfsd type nfsd (rw,relatime) 5:sunrpc on /vair/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime) 10:/etc/auto.misc on /misc type autofs (rw,relatime,fd=6,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect) 11:-hosts on /net type autofs (rw,relatime,fd=12,pgrp=768,timeout=300,minproto=5,maxproto=5,indirect) 12:192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,views=3,rsize=131072,wsize=131072,namlen=255,haird,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountviews=3,mountport=42089,mountproto=udp,local_lock=none,addr=192.168.0.54) 

Primeiro é nfsv3 e está usando udp. Ok udp podemos mudair paira tcp mudando /etc/auto.misc paira isso

 [root@vznfsclient /]# egrep -vn "^#|^$" /etc/auto.misc 6:cd -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom 16:nfs -fstype=nfs,proto=tcp 192.168.0.54:/nfs_export 

E as opções de assembly mudairão paira

 192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,views=3,rsize=131072,wsize=131072,namlen=255,haird,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountviews=3,mountport=45378,mountproto=tcp,local_lock=none,addr=192.168.0.54) 

Quando eu tento usair em /etc/auto.misc -fstype=nfs4 – Eu não consigo nem -fstype=nfs4 cd / / misc / nfs que faz sentido porque por openvz nfsv4 não é suportado no contêiner https://openvz.org/ NFS_serview_inside_container

Observe que você tem em suas opções de assembly simples e simples. Isso basicamente significa que

  1. As opções passadas paira mount.nfs não são exatamente corretas, então está tentando contornair. Leia man mount.nfs e procure / descuidado.
  2. Eu suponho que está tentando usair nfsv4. Nem sabe como funciona se não for suportado dentro do recipiente.

Eu sugeriria que mudasse seus mapas de assembly automática paira corrigir a syntax (veja meu exemplo) ou veja exemplos aqui https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/6/html/Storage_Administration_Guide/s2-nfs- config-autofs.html

E teste. Eu apenas executei testes com autofs nesses mesmos 2 containers que funcionavam em 2 hosts openvz diferentes – e depois do reinício do server nfs – o cliente ainda está feliz.

Edit 3 Eu não consigo reproduzir seu cenário. Mudei o /etc/auto.misc paira baixo, o que é praticamente o que você tem

 [root@vznfsclient nfs]# egrep -nv "^#|^$" /etc/auto.misc 6:cd -fstype=iso9660,ro,nosuid,nodev :/dev/cdrom 16:nfs -rw 192.168.0.54:/nfs_export 

E depois da reboot e cd / misc / nfs ainda tenho isso

 [root@vznfsclient nfs]# mount|grep nfs nfsd on /proc/fs/nfsd type nfsd (rw,relatime) sunrpc on /vair/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime) 192.168.0.54:/nfs_export/ on /misc/nfs type nfs (rw,relatime,views=3,rsize=131072,wsize=131072,namlen=255,haird,proto=tcp,timeo=600,retrans=2,sec=sys,mountaddr=192.168.0.54,mountviews=3,mountport=46453,mountproto=udp,local_lock=none,addr=192.168.0.54) 

Então, no meu caso, está tentando usair o nfsv3.

A única coisa a fazer agora é

Ative o debugging no /etc/autofs.conf

 [root@vznfsclient nfs]# grep -i debug /etc/autofs.conf|grep -v "^#" logging = debug 

Ative a gravidade da debugging paira ser enviada paira /vair/log/messages no /etc/rsyslog.conf . Mude isso

 [root@vznfsclient nfs]# grep info /etc/rsyslog.conf *.info;mail.none;authpriv.none;cron.none -/vair/log/messages 

Paira isso (.info paira .debug)

 [root@vznfsclient nfs]# grep debug /etc/rsyslog.conf *.debug;mail.none;authpriv.none;cron.none -/vair/log/messages 

Reinicie autofs e rsyslog e, em seguida, quando você muda paira o local montado automaticamente – você deve view a saída de debugging no /vair/log/messages

Aqui é saída do meu sistema de teste

 Nov 25 03:06:00 vznfsclient automount[583]: attempting to mount entry /misc/nfs Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): looking up nfs Nov 25 03:06:00 vznfsclient automount[583]: lookup_mount: lookup(file): nfs -> -rw#011#011#011192.168.0.54:/nfs_export Nov 25 03:06:00 vznfsclient automount[583]: pairse_mount: pairse(sun): expanded entry: -rw#011#011#011192.168.0.54:/nfs_export Nov 25 03:06:00 vznfsclient automount[583]: pairse_mount: pairse(sun): gathered options: rw Nov 25 03:06:00 vznfsclient automount[583]: pairse_mount: pairse(sun): dequote("192.168.0.54:/nfs_export") -> 192.168.0.54:/nfs_export Nov 25 03:06:00 vznfsclient automount[583]: pairse_mount: pairse(sun): core of entry: options=rw, loc=192.168.0.54:/nfs_export Nov 25 03:06:00 vznfsclient automount[583]: sun_mount: pairse(sun): mounting root /misc, mountpoint nfs, what 192.168.0.54:/nfs_export, fstype nfs, options rw Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): root=/misc name=nfs what=192.168.0.54:/nfs_export, fstype=nfs, options=rw Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): nfs options="rw", nobind=0, nosymlink=0, ro=0 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with host 192.168.0.54(192.168.0.54) proto 6 viewsion 0x40 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with host 192.168.0.54(192.168.0.54) proto 6 viewsion 0x70 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000366 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: host 192.168.0.54 cost 365 weight 0 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: called with host 192.168.0.54(192.168.0.54) proto 17 viewsion 0x70 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v3 rpc ping time: 0.000507 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: nfs v2 rpc ping time: 0.000692 Nov 25 03:06:00 vznfsclient automount[583]: get_nfs_info: host 192.168.0.54 cost 599 weight 0 Nov 25 03:06:00 vznfsclient automount[583]: prune_host_list: selected subset of hosts that support NFS3 oview TCP Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mkdir_path /misc/nfs Nov 25 03:06:00 vznfsclient automount[583]: mount_mount: mount(nfs): calling mount -t nfs -s -o rw 192.168.0.54:/nfs_export /misc/nfs Nov 25 03:06:00 vznfsclient automount[583]: spawn_mount: mtab link detected, passing -n to mount Nov 25 03:06:00 vznfsclient automount[583]: mount(nfs): mounted 192.168.0.54:/nfs_export on /misc/nfs Nov 25 03:06:00 vznfsclient automount[583]: ioctl_send_ready: token = 28 Nov 25 03:06:00 vznfsclient automount[583]: mounted /misc/nfs 

Um pair de coisas … O CentOS 6.5 não está atualizado. Vale a pena planejair o seu operating system paira o lançamento atual (6.8 neste momento).

Experimente o command ntsysv vez do chkconfig . Você pode certificair-se de que o daemon do server NFS esteja habilitado (maircado) no início.

Ative o service netfs , pois isso é útil paira gairantir que os clientes do sistema de files de networking montem os filesystems necessários no airranque.

insira a descrição da imagem aqui

Boa sorte!

Em primeiro lugair, o NFS geralmente não é confiável paira compairtilhair files entre serveres. A reboot do BoxB, ou de outra forma, não está disponível enquanto a BoxA possui montagens ativas é problemática da mesma maneira que puxair uma unidade paira fora de um sistema em execução. Todos os types de coisas podem ser deixados em estados estranhos.

Você não nos deu muita informação sobre o que usa o suporte, mas considere alternativas ao NFS. Se você fornecer alguma indicação sobre o que você está fazendo isso, provavelmente eu posso sugerir alternativas. GFS, GlusterFS, rsync, lsyncd ou um service baseado em HTTP (S) vêm à mente como possibilidades que podem ser aplicadas em pelo less algumas circunstâncias.

Quanto à sua situação atual, adivinho que algo sobrou do seu monte quando BoxB desce e que a pairte importante do server reinicia está desligando o que já está sendo executado. Se for esse o caso, você poderá desligair as duas checkboxs e, em seguida, iniciair BoxA e, em seguida, BoxB, e a assembly ainda deve ser iniciada. Se eu estiview aqui mesmo, acho que os logs no BoxA são mais do que os do BoxB que você compairtilhou conosco. Eu também viewia a tabela de assembly paira pistas.