Последние пару недель я пытался настроить экземпляр AWS, чтобы он был доступен через IPv6. Однако я не могу подключиться к этой машине (Ubuntu Server 16) с помощью SSH-соединения.
Вот что я сделал до сих пор:
Я создал общедоступный VPC с блоком IPv4 и IPv6 CIDR. Таблица маршрутизации
Я настроил ACL, чтобы разрешить ВСЕ входящий трафик SSH: ACL
Теперь, пока я могу получить доступ к машине без его общедоступного IPv4-адреса и DNS-имени, я не могу установить соединение через IPv6
Я пропустил шаг в настройке или IPv6 еще не полностью поддерживается в моем регионе AWS? (eu-central-1)
ОБНОВЛЕНИЕ:
Экземпляр действительно имеет адрес IPv6, и его группа безопасности разрешает входящие соединения SSH:
iDOTstackDOTimgurDOTcomSLASHMkNhcDOTpng я Я столкнулся с проблемой, когда ZFS не хватает около 4 ТБ места на томе 16 ТБ. Пул ZFS сообщает правильный размер (16,3 ТБ): nmc @ thn-nstor1 : / $ zpool list РАЗМЕР ИМЕНИ ...
Я столкнулся с проблемой, при которой ZFS не хватает около 4 ТБ на томе 16 ТБ.
Пул ZFS сообщает правильный размер (16,3 ТБ):
nmc@thn-nstor1:/$ zpool list
NAME SIZE ALLOC FREE EXPANDSZ CAP DEDUP HEALTH ALTROOT
nstore1pool1 16.3T 15.2T 1.11T - 93% 1.00x ONLINE -
syspool 29G 9.20G 19.8G - 31% 1.00x ONLINE -
Однако команда zfs list
сообщает, что на 4 ТБ меньше:
nmc@thn-nstor1:/$ zfs list
NAME USED AVAIL REFER MOUNTPOINT
nstore1pool1 12.4T 770G 116K /volumes/nstore1pool1
nstore1pool1/.nza-reserve 49.8K 770G 49.8K none
nstore1pool1/nstore1zvol1 28.4K 770G 28.4K -
nstore1pool1/veeam 12.4T 770G 12.4T /volumes/nstore1pool1/veeam
Дополнительно к прочтению этого сообщения Я также запустил zfs list -o space
и zfs list -t snapshot
, чтобы убедиться, что нет снимков, использующих пробел, которые подтверждают приведенные выше результаты:
nmc@thn-nstor1:/$ zfs list -t snapshot
NAME USED AVAIL REFER MOUNTPOINT
nmc@thn-nstor1:/$ zfs list -o space
NAME AVAIL USED USEDSNAP USEDDS USEDREFRESERV USEDCHILD
nstore1pool1 770G 12.4T 0 116K 0 12.4T
nstore1pool1/.nza-reserve 770G 49.8K 0 49.8K 0 0
nstore1pool1/nstore1zvol1 770G 28.4K 0 28.4K 0 0
nstore1pool1/veeam 770G 12.4T 0 12.4T 0 0
** EDIT **
В дополнение к запросам о дополнительной информации, вот результат zfs status -v
и zfs list -t all
(сокращен для краткости):
nmc@thn-nstor1:/$ zpool status -v
pool: nstore1pool1
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
nstore1pool1 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
c0t5000C5003F0DE915d0 ONLINE 0 0 0
c0t5000C5003F17FA16d0 ONLINE 0 0 0
c0t5000C500506272F7d0 ONLINE 0 0 0
c0t5000C50063E7E297d0 ONLINE 0 0 0
c0t5000C500644D6CE0d0 ONLINE 0 0 0
c0t5000C500644FBA98d0 ONLINE 0 0 0
c0t5000C500644FFD61d0 ONLINE 0 0 0
c0t5000C50064509003d0 ONLINE 0 0 0
c0t5000C50064AE3241d0 ONLINE 0 0 0
raidz1-1 ONLINE 0 0 0
c0t5000C50064BF602Dd0 ONLINE 0 0 0
c0t50014EE65BA8D06Dd0 ONLINE 0 0 0
c0t50014EE6B0FE0EA6d0 ONLINE 0 0 0
raidz1-2 ONLINE 0 0 0
c0t50014EE606A6F0E5d0 ONLINE 0 0 0
c0t50014EE65BFCD389d0 ONLINE 0 0 0
c0t50014EE65BFD0761d0 ONLINE 0 0 0
c0t50014EE65BFD11A3d0 ONLINE 0 0 0
c0t50014EE6B150B5FBd0 ONLINE 0 0 0
c0t50014EE6B152CB82d0 ONLINE 0 0 0
errors: No known data errors
nmc@thn-nstor1:/$ zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
nstore1pool1 12.4T 770G 116K /volumes/nstore1pool1
nstore1pool1/.nza-reserve 49.8K 770G 49.8K none
nstore1pool1/nstore1zvol1 28.4K 770G 28.4K -
nstore1pool1/veeam 12.4T 770G 12.4T /volumes/nstore1pool1/veeam
Я был бы признателен за любую помощь в понимание того, куда пропало это недостающее пространство?
О боже ... что вы сделали?!?
В общем, RAIDZ1 / 2/3 покажет списки zpool с полной (необработанной) емкостью дисков, в то время как в списках zfs будет показано пространство без четности ...
Но то, что вы показали выше:
9-дисковый RAIDZ1 с чередованием с 3-дисковым RAIDZ1 и 6-дисковый RAIDZ1.
Это очень плохо, если вы не собирались этого делать. Все ли диски одинакового размера?