В CentOS 7 с двумя кирпичиками на srv1
и srv2
Я обновил gluster с 313 до 6 с помощью yum
. Затем я перезагрузил сервер 1, запустил и успешно смонтировал диск.
Это моя команда монтирования:
/usr/sbin/mount.glusterfs 127.0.0.1:/RepVol / home -o direct-io-mode = enable
Затем я перезапустил srv2
, я не могу смонтировать:
[2019-08-29 14:16:01.354362] I [MSGID: 101190] [event-epoll.c:680:event_dispatch_epoll_worker] 0-epoll: Started thread with index 0
[2019-08-29 14:16:01.354402] I [glusterfsd-mgmt.c:2443:mgmt_rpc_notify] 0-glusterfsd-mgmt: disconnected from remote-host: srv2
[2019-08-29 14:16:01.354409] I [glusterfsd-mgmt.c:2463:mgmt_rpc_notify] 0-glusterfsd-mgmt: Exhausted all volfile servers
[2019-08-29 14:16:01.354600] W [glusterfsd.c:1570:cleanup_and_exit] (-->/lib64/libgfrpc.so.0(+0xf1d3) [0x7f477284f1d3] -->/usr/sbin/glusterfsd(+0x12fef) [0x564e35a67fef] -->/usr/sbin/glusterfsd(cleanup_and_exit+0x6b) [0x564e35a6001b] ) 0-: received signum (1), shutting down
[2019-08-29 14:16:01.357036] I [socket.c:3754:socket_submit_outgoing_msg] 0-glusterfs: not connected (priv->connected = 0)
[2019-08-29 14:16:01.357050] W [rpc-clnt.c:1704:rpc_clnt_submit] 0-glusterfs: failed to submit rpc-request (unique: 0, XID: 0x2 Program: Gluster Portmap, ProgVers: 1, Proc: 5) to rpc-transport (glusterfs)
Сообщение об ошибке Исчерпаны все серверы volfile
. По крайней мере, это единственное, что отображается как ошибка imo.
на srv1
:
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick srv1:/datafold 49152 0 Y 16291
Self-heal Daemon on localhost N/A N/A Y 16313
Task Status of Volume RepVol
------------------------------------------------------------------------------
There are no active volume tasks
на srv2
:
Gluster process TCP Port RDMA Port Online Pid
------------------------------------------------------------------------------
Brick srv1:/datafold 49152 0 Y 16291
Brick srv2:/datafold N/A N/A N N/A
Self-heal Daemon on localhost N/A N/A N N/A
Self-heal Daemon on srv1 N/A N/A Y 16313
Task Status of Volume RepVol
------------------------------------------------------------------------------
There are no active volume tasks
Поэтому логично, что он не может монтироваться, когда кирпич отключен. Однако я понятия не имею, как запустить этот кирпич, даже после нескольких часов поисков. Было бы неплохо найти решение.
Я попытался удалить том, чтобы воссоздать его, но он жалуется, что не все блоки подключены.
Я также читал, что gluster использует ipv6 по умолчанию, начиная с версии 5, но не уверен, как это повлияет на мою настройку, поскольку srv1, похоже, запущен и работает?
РЕДАКТИРОВАТЬ:
Glusterd не работает на правильном порту! Это должно быть 24007
, но это показано как:
netstat -tulpn | grep gluster
tcp 0 0 0.0.0.0:34678 0.0.0.0:* СЛУШАТЬ 28743 / glusterd
какого черта? Как это исправить?? Перезапуск ничего не делает, кроме того, что он назначает новый случайный порт ...
tcp 0 0 0.0.0.0:43914 0.0.0.0:* СЛУШАТЬ 17134 / glusterd
Почему он не работает на 24007?
Я удалил glusterfs-server yum remove glusterfs-server -y
и снова установил его:
yum install glusterfs-server -y
systemctl enable glusterd.service
systemctl start glusterd.service
Затем он запустился на порту 24007, и все снова заработало.
Я просто зря потратил пару часов, потому что glusterd решил, что случайный порт подойдет, а 24007 даже не используется, отлично!