Я новичок в мире Azure AKS Cluster, и возившись с тестовым кластером, я удалил все его узлы с помощью kubectl delete node xxxx
, думая, что кластер излечится сам. Боже, как я ошибался.
Теперь позвольте мне объяснить проблему: когда я запускаю kubectl get nodes
, я получаю No resources found
.
В "Пулах узлов" на портале я вижу, что есть 3 узла,
Я увеличивал и уменьшал пул, но в kubectl показывает отсутствие узлов - No resources found
.
Когда я запускаю kubectl get pods
, все pods показаны в состоянии ожидания.
Дополнительная информация:
Мой вопрос(и) к вам:
EDIT:
Новый вопрос:
Еще раз спасибо, друзья.
Если вы запустили узел удаления kubectl, он больше не зарегистрирован в Kubernetes. Если вы использовали масштабные наборы, то лучшим вариантом было бы уменьшить масштаб, а затем снова выполнить резервное копирование, чтобы получить новые узлы и перерегистрировать их. В вашем сценарии с наборами доступности у вас нет такой возможности. Вы можете посмотреть запуск обновления узла, которое может перерегистрировать его, или вы можете удалить виртуальную машину и заставить AKS воссоздать ее.
Все это говорит о том, что наборы доступности - это не способ использовать AKS в настоящее время, на вашем месте я бы просто удалил кластер и воссоздал его с помощью VMSS, учитывая, что это тестовый кластер.
Спасибо всем за помощь. Итак, у нас был сеанс поддержки с командой поддержки MS, и, как всегда, рекомендация была первой обновите кластер до поддерживаемой версии AKS, и тогда мы сможем увидеть, что делать дальше. Я запустил az aks upgrade до следующей поддерживаемой версии, и все узлы правильно развернулись, и подключилось к серверу API Модули начали работать нормально, и кластер снова в сети. Итак, если быть точным - решение заключалось в обновлении кластера до поддерживаемой версии кластера AKS с помощью интерфейса командной строки.
Еще раз спасибо, ребята