Deckhouse Platform на VMware vSphere
Лицензионный ключ доступа Deckhouse Platform Enterprise Edition
Лицензионный ключ используется компонентами Deckhouse для доступа к геораспределенному container registry, в котором хранятся все используемые Deckhouse образы.
Приведенные на данной странице команды и файлы конфигурации сгенерированы с учетом введенного лицензионного ключа.
Запросить лицензионный ключ
Заполните форму и мы отправим данные для доступа вам на почту.
Введите лицензионный ключ
Ниже сгенерированы рекомендованные настройки для установки Deckhouse Platform Enterprise Edition:
config.yml
— файл первичной конфигурации кластера. Содержит параметры инсталлятора, параметры доступа облачного проавайдера и начальные параметры кластера.resources.yml
— описание ресурсов для создания после установки (настройки узлов и Ingress-контроллера).
Обратите внимание:
- обязательные для самостоятельного заполнения параметры.
- опциональные параметры.
- Если вы запускаете инсталлятор под Windows, то убедитесь, что кодировка создаваемых YAML-файлов конфигурации UTF-8 (либо удалите примечания на русском языке).
Полное описание параметров конфигурации cloud-провайдеров вы можете найти в документации.
Deckhouse Platform использует каналы обновлений (release channels), о чём вы можете подробнее узнать в документации.
# секция с общими параметрами кластера (ClusterConfiguration)
# используемая версия API Deckhouse Platform
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: ClusterConfiguration
# тип инфраструктуры: bare metal (Static) или облако (Cloud)
clusterType: Cloud
# параметры облачного провайдера
cloud:
# используемый облачный провайдер
provider: vSphere
# префикс для объектов кластера для их отличия (используется, например, при маршрутизации)
prefix: "cloud-demo"
# адресное пространство pod’ов кластера
podSubnetCIDR: 10.111.0.0/16
# адресное пространство для service’ов кластера
serviceSubnetCIDR: 10.222.0.0/16
# устанавливаемая версия Kubernetes
kubernetesVersion: "1.21"
# домен кластера
clusterDomain: "cluster.local"
---
# секция первичной инициализации кластера Deckhouse (InitConfiguration)
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: InitConfiguration
# секция с параметрами Deckhouse
deckhouse:
# адрес Docker registry с образами Deckhouse
imagesRepo: registry.deckhouse.io/deckhouse/ee
# строка с ключом для доступа к Docker registry (сгенерировано автоматически для вашего токена доступа)
registryDockerCfg: <YOUR_ACCESS_STRING_IS_HERE>
# используемый канал обновлений
releaseChannel: Stable
configOverrides:
global:
modules:
# шаблон, который будет использоваться для составления адресов системных приложений в кластере
# например, Grafana для %s.example.com будет доступна на домене grafana.example.com
publicDomainTemplate: "%s.example.com"
---
# секция, описывающая параметры облачного провайдера
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: VsphereClusterConfiguration
# layout — архитектура расположения ресурсов в облаке
layout: Standard
# параметры доступа к vCenter
provider:
server: *!CHANGE_SERVER*
username: *!CHANGE_USERNAME*
password: *!CHANGE_PASSWORD*
# Укажите true, если vCenter использует самоподписанный сертификат,
# иначе укажите false (или удалите строку с параметром insecure).
insecure: *!CHANGE_INSECURE*
# путь до Folder, в котором будут создаваться виртуальные машины
# сам Folder будет создан Deckhouse Installer'ом
vmFolderPath: *!CHANGE_FOLDER*
# имена категорий тэгов регионов и зон
regionTagCategory: k8s-region
zoneTagCategory: k8s-zone
# имена тэгов зон и регионов, в которых будет работать кластер
region: *!CHANGE_REGION_TAG_NAME*
zones:
- *!CHANGE_ZONE_TAG_NAME*
# публичная часть SSH-ключа для доступа к узлам облака
sshPublicKey: ssh-rsa <SSH_PUBLIC_KEY>
# имя External Network, у которой есть доступ в Интернет
# ip адреса из External Network проставляются как ExternalIP объекта Node
# опциональный параметр
externalNetworkNames:
- *!CHANGE_NETWORK_NAME*
# имя Internal Network, которая будет использоваться для трафика между нодами, в данном примере идентично externalNetworkNames
# ip адреса из Internal Network проставляются как InternalIP объекта Node
# опциональный параметр
internalNetworkNames:
- *!CHANGE_NETWORK_NAME*
# адресное пространство узлов кластера
internalNetworkCIDR: 10.90.0.0/24
masterNodeGroup:
# количество реплик мастера
# если будет больше одного master-узла, то control-plane на всех master-узлах будет развернут автоматическии
replicas: 1
# Параметры инстанса
instanceClass:
numCPUs: 4
memory: 8192
rootDiskSize: 50
# Имя образа, созданного в шаге 4 на этапе "Сборка образа виртуальных машин",
# с учетом папки размещения образа в vCenter. Пример: "folder/my-ubuntu-packer-image".
template: *!CHANGE_TEMPLATE_NAME*
datastore: *!CHANGE_DATASTORE_NAME*
# основная сеть подключенная к узлу
mainNetwork: *!CHANGE_NETWORK_NAME*
# дополнительные сети, подключенные к узлу
# опциональный параметр
additionalNetworks:
- *!CHANGE_NETWORK_NAME*
Описание ресурсов для набора узлов “Минимальный”.
---
# секция, описывающая параметры инстанс-класса для рабочего узла
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: VsphereInstanceClass
metadata:
# имя инстанс класса
name: worker
spec:
numCPUs: 8
memory: 16384
# размер диска для виртуальной машины
# возможно, захотите изменить
rootDiskSize: 70
template: *!CHANGE_TEMPLATE_NAME*
---
# секция, описывающая параметры группы узлов worker
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
# имя группы узлов
name: worker
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: VsphereInstanceClass
name: worker
# максимальное количество инстансов в зоне
maxPerZone: 1
# минимальное количество инстансов в зоне
minPerZone: 1
# переопределение перечня зон, в которых создаются инстансы
zones:
- *!CHANGE_ZONE_TAG_NAME*
nodeType: CloudEphemeral
---
# секция, описывающая параметры nginx ingress controller
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: IngressNginxController
metadata:
name: nginx
spec:
# имя Ingress-класса для использования Ingress Nginx controller
ingressClass: nginx
# способ поступления трафика из внешнего мира
inlet: HostPort
hostPort:
httpPort: 80
httpsPort: 443
realIPHeader: X-Forwarded-For
nodeSelector:
node-role.kubernetes.io/master: ""
tolerations:
- operator: Exists
---
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: admin
spec:
# список учётных записей Kubernetes RBAC
subjects:
- kind: User
name: admin@example.com
# предустановленный шаблон уровня доступа
accessLevel: SuperAdmin
# разрешить пользователю делать kubectl port-forward
portForwarding: true
---
# секция, описывающая параметры статического пользователя
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: User
metadata:
name: admin
spec:
# e-mail пользователя
email: admin@example.com
# это хэш пароля <GENERATED_PASSWORD>, сгенерированного сейчас
# сгенерируйте свой или используйте этот, но только для тестирования
# echo "<GENERATED_PASSWORD>" | htpasswd -BinC 10 "" | cut -d: -f2
# возможно, захотите изменить
password: <GENERATED_PASSWORD_HASH>
Описание ресурсов для набора узлов “Мультимастер”.
---
# секция, описывающая параметры инстанс-класса для рабочего узла
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: VsphereInstanceClass
metadata:
# имя инстанс класса
name: worker
spec:
numCPUs: 8
memory: 16384
# размер диска для виртуальной машины
# возможно, захотите изменить
rootDiskSize: 70
template: *!CHANGE_TEMPLATE_NAME*
---
# секция, описывающая параметры группы узлов worker
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
# имя группы узлов
name: worker
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: VsphereInstanceClass
name: worker
# максимальное количество инстансов в зоне
maxPerZone: 2
# минимальное количество инстансов в зоне
minPerZone: 2
# переопределение перечня зон, в которых создаются инстансы
zones:
- *!CHANGE_ZONE_TAG_NAME*
- *!CHANGE_ANOTHER_ZONE_TAG_NAME*
nodeType: CloudEphemeral
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, принимающими трафик
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: VsphereInstanceClass
metadata:
# имя инстанс класса
name: frontend
spec:
numCPUs: 4
memory: 8192
# размер диска для виртуальной машины
# возможно, захотите изменить
rootDiskSize: 50
template: *!CHANGE_TEMPLATE_NAME*
---
# секция, описывающая параметры группы узлов frontend
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
# имя группы узлов
name: frontend
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: VsphereInstanceClass
name: frontend
# максимальное количество инстансов в зоне
maxPerZone: 2
# минимальное количество инстансов в зоне
minPerZone: 2
# переопределение перечня зон, в которых создаются инстансы
# возможно, захотите изменить
zones:
- *!CHANGE_ZONE_TAG_NAME*
- *!CHANGE_ANOTHER_ZONE_TAG_NAME*
nodeTemplate:
# аналогично стандартному полю metadata.labels
labels:
node-role.deckhouse.io/frontend: ""
# аналогично полю .spec.taints из объекта Node
# доступны только поля effect, key, value
taints:
- effect: NoExecute
key: dedicated.deckhouse.io
value: frontend
nodeType: CloudEphemeral
---
# секция, описывающая параметры nginx ingress controller
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: IngressNginxController
metadata:
name: nginx
spec:
# имя Ingress-класса для использования Ingress Nginx controller
ingressClass: nginx
# способ поступления трафика из внешнего мира
inlet: HostPort
hostPort:
httpPort: 80
httpsPort: 443
realIPHeader: X-Forwarded-For
nodeSelector:
node-role.kubernetes.io/frontend: ""
tolerations:
- operator: Exists
---
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: admin
spec:
# список учётных записей Kubernetes RBAC
subjects:
- kind: User
name: admin@example.com
# предустановленный шаблон уровня доступа
accessLevel: SuperAdmin
# разрешить пользователю делать kubectl port-forward
portForwarding: true
---
# секция, описывающая параметры статического пользователя
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: User
metadata:
name: admin
spec:
# e-mail пользователя
email: admin@example.com
# это хэш пароля <GENERATED_PASSWORD>, сгенерированного сейчас
# сгенерируйте свой или используйте этот, но только для тестирования
# echo "<GENERATED_PASSWORD>" | htpasswd -BinC 10 "" | cut -d: -f2
# возможно, захотите изменить
password: <GENERATED_PASSWORD_HASH>
Описание ресурсов для набора узлов “Рекомендовано для production”.
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, обеспечивающими рабочую нагрузку
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: VsphereInstanceClass
metadata:
# имя инстанс класса
name: worker
spec:
numCPUs: 8
memory: 16384
# размер диска для виртуальной машины
# возможно, захотите изменить
rootDiskSize: 70
template: *!CHANGE_TEMPLATE_NAME*
---
# секция, описывающая параметры группы узлов c компонентами, обеспечивающими рабочую нагрузку
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
# имя группы узлов
name: worker
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: VsphereInstanceClass
name: worker
# максимальное количество инстансов в зоне
maxPerZone: 1
# минимальное количество инстансов в зоне
minPerZone: 1
# переопределение перечня зон, в которых создаются инстансы
zones:
- *!CHANGE_ZONE_TAG_NAME*
- *!CHANGE_ANOTHER_ZONE_TAG_NAME*
nodeType: CloudEphemeral
---
# секция, описывающая параметры инстанс-класса для узлов c системными компонентами
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: VsphereInstanceClass
metadata:
# имя инстанс класса
name: system
spec:
numCPUs: 8
memory: 16384
# размер диска для виртуальной машины
# возможно, захотите изменить
rootDiskSize: 100
template: *!CHANGE_TEMPLATE_NAME*
---
# секция, описывающая параметры группы узлов c системными компонентами
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
# имя группы узлов
name: system
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: VsphereInstanceClass
name: system
# максимальное количество инстансов в зоне
maxPerZone: 2
# минимальное количество инстансов в зоне
minPerZone: 1
# переопределение перечня зон, в которых создаются инстансы
# возможно, захотите изменить
zones:
- *!CHANGE_ZONE_TAG_NAME*
- *!CHANGE_ANOTHER_ZONE_TAG_NAME*
nodeTemplate:
# аналогично стандартному полю metadata.labels
labels:
node-role.deckhouse.io/system: ""
# аналогично полю .spec.taints из объекта Node
# доступны только поля effect, key, value
taints:
- effect: NoExecute
key: dedicated.deckhouse.io
value: system
nodeType: CloudEphemeral
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, принимающими трафик
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: VsphereInstanceClass
metadata:
# имя инстанс класса
name: frontend
spec:
numCPUs: 4
memory: 8192
# размер диска для виртуальной машины
# возможно, захотите изменить
rootDiskSize: 50
template: *!CHANGE_TEMPLATE_NAME*
---
# секция, описывающая параметры группы узлов c компонентами, принимающими трафик
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
# имя группы узлов
name: frontend
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: VsphereInstanceClass
name: frontend
# максимальное количество инстансов в зоне
maxPerZone: 2
# минимальное количество инстансов в зоне
minPerZone: 3
# переопределение перечня зон, в которых создаются инстансы
# возможно, захотите изменить
zones:
- *!CHANGE_ZONE_TAG_NAME*
- *!CHANGE_ANOTHER_ZONE_TAG_NAME*
nodeTemplate:
# аналогично стандартному полю metadata.labels
labels:
node-role.deckhouse.io/frontend: ""
# аналогично полю .spec.taints из объекта Node
# доступны только поля effect, key, value
taints:
- effect: NoExecute
key: dedicated.deckhouse.io
value: frontend
nodeType: CloudEphemeral
---
# секция, описывающая параметры nginx ingress controller
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: IngressNginxController
metadata:
name: nginx
spec:
# имя Ingress-класса для использования Ingress Nginx controller
ingressClass: nginx
# способ поступления трафика из внешнего мира
inlet: HostPort
hostPort:
httpPort: 80
httpsPort: 443
realIPHeader: X-Forwarded-For
nodeSelector:
node-role.kubernetes.io/frontend: ""
tolerations:
- operator: Exists
---
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: admin
spec:
# список учётных записей Kubernetes RBAC
subjects:
- kind: User
name: admin@example.com
# предустановленный шаблон уровня доступа
accessLevel: SuperAdmin
# разрешить пользователю делать kubectl port-forward
portForwarding: true
---
# секция, описывающая параметры статического пользователя
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: User
metadata:
name: admin
spec:
# e-mail пользователя
email: admin@example.com
# это хэш пароля <GENERATED_PASSWORD>, сгенерированного сейчас
# сгенерируйте свой или используйте этот, но только для тестирования
# echo "<GENERATED_PASSWORD>" | htpasswd -BinC 10 "" | cut -d: -f2
# возможно, захотите изменить
password: <GENERATED_PASSWORD_HASH>
Для установки Deckhouse Platform используется Docker-образ, в который необходимо передать конфигурационные файлы и SSH-ключи доступа на master-узлы.
Запустите установщик на персональном компьютере.
echo <LICENSE_TOKEN> | docker login -u license-token --password-stdin registry.deckhouse.io
docker run --pull=always -it -v "$PWD/config.yml:/config.yml" -v "$HOME/.ssh/:/tmp/.ssh/" \
-v "$PWD/resources.yml:/resources.yml" -v "$PWD/dhctl-tmp:/tmp/dhctl" registry.deckhouse.io/deckhouse/ee/install:stable bash
Авторизуйтесь на персональном компьютере в container image registry, введя лицензионный ключ на запрос пароля:
docker login -u license-token registry.deckhouse.io
Запустите контейнер с установщиком:
docker run --pull=always -it -v "%cd%\config.yml:/config.yml" -v "%userprofile%\.ssh\:/tmp/.ssh/" -v "%cd%\resources.yml:/resources.yml" -v "%cd%\dhctl-tmp:/tmp/dhctl" registry.deckhouse.io/deckhouse/ee/install:stable bash -c "chmod 400 /tmp/.ssh/id_rsa; bash"
Внутри контейнера выполните команду:
dhctl bootstrap --ssh-user=ubuntu --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml --resources=/resources.yml
Здесь, в параметре --ssh-user
указывается имя пользователя по умолчанию для выбранного образа виртуальной машины. Для предложенных в этом руководстве образов, это — ubuntu
.
Примечания:
-
Благодаря использованию параметра
-v "$PWD/dhctl-tmp:/tmp/dhctl"
состояние данных Terraform-инстяллятора будет сохранено во временной директории на хосте запуска, что позволит корректно продолжить установку в случае прерывания работы контейнера с инсталлятором. В случае возникновения проблем во время разворачивания кластера, для прерывания процесса установки и удаления созданных при инсталляции объектов воспользуйтесь следующей командой (файл конфигурации должен совпадать с тем, с которым производилось разворачивание кластера):
dhctl bootstrap-phase abort --ssh-user=ubuntu --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml
dhctl bootstrap-phase abort --ssh-user=ubuntu --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml
По окончании установки произойдёт возврат к командной строке.
Почти все готово для полноценной работы Deckhouse Platform!