в настоящее время у нас есть проблема, когда кто-то (а) с множеством разных IP-адресов, принадлежащих AWS, очищает \ делает много запросов в секунду на наш общедоступный сервер. Пользовательские агенты рандомизированы, и не существует шаблона, с помощью которого можно было бы блокировать соединения. Мы попытались заблокировать целые диапазоны IP-адресов AWS (что сработало), но это привело к нарушению работы некоторых сервисов, которые мы используем (загрузки S3 и т. Д.). Единственная константа - это то, что реферер всегда установлен на 'google.com', что, очевидно, нам не нужно. заблокировать, потому что не было бы возможности получить доступ к нашему сайту из поиска Google. Через несколько дней использования пула zfs я перезагрузил систему, и пул zfs исчез. "...
Недавно я преобразовал зеркальный раздел mdadm в Ubuntu 16.04 в зеркальный пул zfs, по крайней мере, я так думал. Через несколько дней использования пула zfs я перезагрузил систему, и пул zfs исчез. "zpool list" не отображает потерянный zpool. В нем указан только другой zpool, который у меня есть.
Мои вопросы:
- Могу ли я восстановить отсутствующий пул ZFS?
- Как полностью удалить разделы из mdadm, чтобы этого больше не повторилось?
/ proc / mdstat показывает новое устройство md, использующее разделы, которые я использовал для пула zfs:
md127 : inactive sdb3[1] sda3[0]
2047737856 blocks super 1.2
Перед моей попыткой преобразовать это устройство в ZFS оно появилось в / proc / mdstat следующим образом:
md3 : active raid1 sdb3[1] sda3[0]
1023868928 blocks super 1.2 [2/2] [UU]
bitmap: 0/8 pages [0KB], 65536KB chunk
Чтобы преобразовать раздел в ZFS, я сделал:
- закомментировал запись из /etc/mdadm/mdadm.conf
- остановил раздел рейда с помощью команды mdadm (я не записал точную команду, которую я использовал) .
/etc/mdadm/mdadm.conf содержит:
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root@localhost
# definitions of existing MD arrays
ARRAY /dev/md2 UUID=345b919e:df7ab6fa:a4d2adc2:26fd5302
#ARRAY /dev/md/3 metadata=1.2 UUID=a276579e:ac9ae714:8e35cebf:75ca9fad name=...