Подключение к Amazon AWS через SSH через IPv6

Последние пару недель я пытался настроить экземпляр AWS, чтобы он был доступен через IPv6. Однако я не могу подключиться к этой машине (Ubuntu Server 16) с помощью SSH-соединения.

Вот что я сделал до сих пор:

Теперь, пока я могу получить доступ к машине без его общедоступного IPv4-адреса и DNS-имени, я не могу установить соединение через IPv6

Я пропустил шаг в настройке или IPv6 еще не полностью поддерживается в моем регионе AWS? (eu-central-1)

ОБНОВЛЕНИЕ:

Экземпляр действительно имеет адрес IPv6, и его группа безопасности разрешает входящие соединения SSH:

iDOTstackDOTimgurDOTcomSLASHMkNhcDOTpng я Я столкнулся с проблемой, когда ZFS не хватает около 4 ТБ места на томе 16 ТБ. Пул ZFS сообщает правильный размер (16,3 ТБ): nmc @ thn-nstor1 : / $ zpool list РАЗМЕР ИМЕНИ ...

Я столкнулся с проблемой, при которой ZFS не хватает около 4 ТБ на томе 16 ТБ.

Пул ZFS сообщает правильный размер (16,3 ТБ):

nmc@thn-nstor1:/$ zpool list
NAME           SIZE  ALLOC   FREE  EXPANDSZ    CAP  DEDUP  HEALTH  ALTROOT
nstore1pool1  16.3T  15.2T  1.11T         -    93%  1.00x  ONLINE  -
syspool         29G  9.20G  19.8G         -    31%  1.00x  ONLINE  -

Однако команда zfs list сообщает, что на 4 ТБ меньше:

nmc@thn-nstor1:/$ zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT
nstore1pool1               12.4T   770G   116K  /volumes/nstore1pool1
nstore1pool1/.nza-reserve  49.8K   770G  49.8K  none
nstore1pool1/nstore1zvol1  28.4K   770G  28.4K  -
nstore1pool1/veeam         12.4T   770G  12.4T  /volumes/nstore1pool1/veeam

Дополнительно к прочтению этого сообщения Я также запустил zfs list -o space и zfs list -t snapshot , чтобы убедиться, что нет снимков, использующих пробел, которые подтверждают приведенные выше результаты:

nmc@thn-nstor1:/$ zfs list -t snapshot
NAME                             USED  AVAIL  REFER  MOUNTPOINT

nmc@thn-nstor1:/$ zfs list -o space
NAME                       AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
nstore1pool1                770G  12.4T         0    116K              0      12.4T
nstore1pool1/.nza-reserve   770G  49.8K         0   49.8K              0          0
nstore1pool1/nstore1zvol1   770G  28.4K         0   28.4K              0          0
nstore1pool1/veeam          770G  12.4T         0   12.4T              0          0

** EDIT **

В дополнение к запросам о дополнительной информации, вот результат zfs status -v и zfs list -t all (сокращен для краткости):

nmc@thn-nstor1:/$ zpool status -v
  pool: nstore1pool1
 state: ONLINE
  scan: none requested
config:

        NAME                       STATE     READ WRITE CKSUM
        nstore1pool1               ONLINE       0     0     0
          raidz1-0                 ONLINE       0     0     0
            c0t5000C5003F0DE915d0  ONLINE       0     0     0
            c0t5000C5003F17FA16d0  ONLINE       0     0     0
            c0t5000C500506272F7d0  ONLINE       0     0     0
            c0t5000C50063E7E297d0  ONLINE       0     0     0
            c0t5000C500644D6CE0d0  ONLINE       0     0     0
            c0t5000C500644FBA98d0  ONLINE       0     0     0
            c0t5000C500644FFD61d0  ONLINE       0     0     0
            c0t5000C50064509003d0  ONLINE       0     0     0
            c0t5000C50064AE3241d0  ONLINE       0     0     0
          raidz1-1                 ONLINE       0     0     0
            c0t5000C50064BF602Dd0  ONLINE       0     0     0
            c0t50014EE65BA8D06Dd0  ONLINE       0     0     0
            c0t50014EE6B0FE0EA6d0  ONLINE       0     0     0
          raidz1-2                 ONLINE       0     0     0
            c0t50014EE606A6F0E5d0  ONLINE       0     0     0
            c0t50014EE65BFCD389d0  ONLINE       0     0     0
            c0t50014EE65BFD0761d0  ONLINE       0     0     0
            c0t50014EE65BFD11A3d0  ONLINE       0     0     0
            c0t50014EE6B150B5FBd0  ONLINE       0     0     0
            c0t50014EE6B152CB82d0  ONLINE       0     0     0

errors: No known data errors

nmc@thn-nstor1:/$ zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
nstore1pool1                    12.4T   770G   116K  /volumes/nstore1pool1
nstore1pool1/.nza-reserve       49.8K   770G  49.8K  none
nstore1pool1/nstore1zvol1       28.4K   770G  28.4K  -
nstore1pool1/veeam              12.4T   770G  12.4T  /volumes/nstore1pool1/veeam

Я был бы признателен за любую помощь в понимание того, куда пропало это недостающее пространство?

5
задан 25 April 2017 в 14:24
1 ответ

О боже ... что вы сделали?!?

В общем, RAIDZ1 / 2/3 покажет списки zpool с полной (необработанной) емкостью дисков, в то время как в списках zfs будет показано пространство без четности ...

Но то, что вы показали выше:

9-дисковый RAIDZ1 с чередованием с 3-дисковым RAIDZ1 и 6-дисковый RAIDZ1.

Это очень плохо, если вы не собирались этого делать. Все ли диски одинакового размера?

4
ответ дан 3 December 2019 в 01:43

Теги

Похожие вопросы