GlusterFs - удалить и добавить кирпич невозможно

У меня есть кластер GlusterFS (3.12.1) из 3 узлов .

Setp 1: удален узел (node2)

из node1

# gluster volume remove-brick swarm-data replica 2 node2:/glusterfs/swarm-data force  
# gluster peer detach node2  

Setp 2: очистить узел

от node2

# rm -rf /glusterfs/swarm-data  
# mkdir /glusterfs/swarm-data

И задание обслуживания

Setp 3: повторно добавить узел

из node1

# gluster peer probe node2  
# gluster volume add-brick swarm-data replica 3 node2:/glusterfs/swarm-data force
volume add-brick: failed: Commit failed on node2. Please check log
file for details.

показать журналы:

failed to get the port number for remote subvolume. Please run 'gluster volume status' on server to see if brick process is running.
E [MSGID: 108006] [afr-common.c:5001:__afr_handle_child_down_event] 0-swarm-data-replicate-0: All subvolumes are down. Going offline until atleast one of them comes back up.

next:

# gluster volume status
Status of volume: swarm-data
Gluster process                             TCP Port  RDMA Port  Online  Pid
------------------------------------------------------------------------------
Brick node1:/glusterfs/swarm
-data                                       49152     0          Y       31216
Brick node3:/glusterfs/swarm
-data                                       49152     0          Y       2373 
Brick node2:/glusterfs/swarm
-data                                       N/A       N/A        N       N/A  
Self-heal Daemon on localhost               N/A       N/A        Y       27293
Self-heal Daemon on node3    N/A       N/A        Y       20268
Self-heal Daemon on node2    N/A       N/A        Y       7568 

Task Status of Volume swarm-data
------------------------------------------------------------------------------
There are no active volume tasks

=> TCP Port: N / A for Node2 !!

Next:

# gluster volume info swarm-data

Volume Name: swarm-data
Type: Replicate
Volume ID: 0edd8275-8d39-4e95-abc8-9f028c2098a7
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 3 = 3
Transport-type: tcp
Bricks:
Brick1: node1:/glusterfs/swarm-data
Brick2: node3:/glusterfs/swarm-data
Brick3: node2:/glusterfs/swarm-data
Options Reconfigured:
auth.allow: 127.0.0.1
transport.address-family: inet
nfs.disable: on

Node2 здесь! но нет синхронизации данных

узлы 1 и 3 прослушивают порт 49152, но не узел 2:

netstat -an | grep LISTEN

Вы можете мне помочь?

0
задан 26 November 2017 в 17:31
2 ответа

Hamarino ny anaran'ny vahaolana (fisie DNS na fisie host). Zahao ny serivisy glusterd amin'ny node2 dia natomboka na tsia. Raha tsy manomboka i glusterd dia alefaso ny hazo.

0
ответ дан 5 December 2019 в 07:07

Я тоже иногда сталкивался с такой ситуацией. Вы можете попробовать перезапустить службу GlusterFS позже и проверить ее снова:

systemctl restart glusterd
gluster volume status
0
ответ дан 5 December 2019 в 07:07

Теги

Похожие вопросы