Deckhouse Platform в Google Cloud
Выберите редакцию Deckhouse Platform
Ниже сгенерированы рекомендованные настройки для установки Deckhouse Platform Community Edition:
config.yml
— файл первичной конфигурации кластера. Содержит параметры инсталлятора, параметры доступа облачного проавайдера и начальные параметры кластера.resources.yml
— описание ресурсов для создания после установки (настройки узлов и Ingress-контроллера).
Обратите внимание:
- обязательные для самостоятельного заполнения параметры.
- опциональные параметры.
- Если вы запускаете инсталлятор под Windows, то убедитесь, что кодировка создаваемых YAML-файлов конфигурации UTF-8 (либо удалите примечания на русском языке).
Полное описание параметров конфигурации cloud-провайдеров вы можете найти в документации.
Deckhouse Platform использует каналы обновлений (release channels), о чём вы можете подробнее узнать в документации.
# секция с общими параметрами кластера (ClusterConfiguration)
# используемая версия API Deckhouse Platform
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: ClusterConfiguration
# тип инфраструктуры: bare metal (Static) или облако (Cloud)
clusterType: Cloud
# параметры облачного провайдера
cloud:
# используемый облачный провайдер
provider: GCP
# префикс для объектов кластера для их отличия (используется, например, при маршрутизации)
prefix: "cloud-demo"
# адресное пространство Pod’ов кластера
podSubnetCIDR: 10.111.0.0/16
# адресное пространство для service’ов кластера
serviceSubnetCIDR: 10.222.0.0/16
# устанавливаемая версия Kubernetes
kubernetesVersion: "1.21"
# домен кластера
clusterDomain: "cluster.local"
---
# секция первичной инициализации кластера Deckhouse (InitConfiguration)
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: InitConfiguration
# секция с параметрами Deckhouse
deckhouse:
# используемый канал обновлений
releaseChannel: Stable
configOverrides:
global:
modules:
# шаблон, который будет использоваться для составления адресов системных приложений в кластере
# например, Grafana для %s.example.com будет доступна на домене grafana.example.com
publicDomainTemplate: "%s.example.com"
---
# секция, описывающая параметры облачного провайдера
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: GCPClusterConfiguration
# layout — архитектура расположения ресурсов в облаке
layout: WithoutNAT
# параметры доступа к облаку GCP
provider:
# Пример заполнения serviceAccountJSON:
# serviceAccountJSON: |
# {
# "type": "service_account",
# "project_id": "somproject-sandbox",
# "private_key_id": "***",
# "private_key": "***",
# "client_email": "mail@somemail.com",
# "client_id": "<client_id>",
# "auth_uri": "https://accounts.google.com/o/oauth2/auth",
# "token_uri": "https://oauth2.googleapis.com/token",
# "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
# "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/somproject-sandbox.gserviceaccount.com"
# }
serviceAccountJSON: *!CHANGE_SA_JSON*
# регион привязки кластера
# возможно, захотите изменить
region: europe-west3
# список меток ресурсов кластера, используются для идентификации в качестве префиксов ресурсов
labels:
kube: example
# параметры группы master-узлов
masterNodeGroup:
# количество реплик мастера
# если будет больше одного master-узла, то control-plane на всех master-узлах будет развернут автоматическии
replicas: 1
# параметры инстанса
instanceClass:
# тип используемого инстанса
# возможно, захотите изменить
machineType: n1-standard-4
# используемый образ
# возможно, захотите изменить
image: projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20190911
# отключить назначение внешнего IP-адреса для кластера
disableExternalIP: false
# адресное пространство узлов кластера
subnetworkCIDR: 10.0.0.0/24
# публичная часть SSH-ключа для доступа к узлам облака
sshKey: ssh-rsa <SSH_PUBLIC_KEY>
Ниже сгенерированы рекомендованные настройки для установки Deckhouse Platform Community Edition:
config.yml
— файл первичной конфигурации кластера. Содержит параметры инсталлятора, параметры доступа облачного проавайдера и начальные параметры кластера.resources.yml
— описание ресурсов для создания после установки (настройки узлов и Ingress-контроллера).
Обратите внимание:
- обязательные для самостоятельного заполнения параметры.
- опциональные параметры.
- Если вы запускаете инсталлятор под Windows, то убедитесь, что кодировка создаваемых YAML-файлов конфигурации UTF-8 (либо удалите примечания на русском языке).
Полное описание параметров конфигурации cloud-провайдеров вы можете найти в документации.
Deckhouse Platform использует каналы обновлений (release channels), о чём вы можете подробнее узнать в документации.
# секция с общими параметрами кластера (ClusterConfiguration)
# используемая версия API Deckhouse Platform
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: ClusterConfiguration
# тип инфраструктуры: bare metal (Static) или облако (Cloud)
clusterType: Cloud
# параметры облачного провайдера
cloud:
# используемый облачный провайдер
provider: GCP
# префикс для объектов кластера для их отличия (используется, например, при маршрутизации)
prefix: "cloud-demo"
# адресное пространство Pod’ов кластера
podSubnetCIDR: 10.111.0.0/16
# адресное пространство для service’ов кластера
serviceSubnetCIDR: 10.222.0.0/16
# устанавливаемая версия Kubernetes
kubernetesVersion: "1.21"
# домен кластера
clusterDomain: "cluster.local"
---
# секция первичной инициализации кластера Deckhouse (InitConfiguration)
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: InitConfiguration
# секция с параметрами Deckhouse
deckhouse:
# используемый канал обновлений
releaseChannel: Stable
configOverrides:
global:
modules:
# шаблон, который будет использоваться для составления адресов системных приложений в кластере
# например, Grafana для %s.example.com будет доступна на домене grafana.example.com
publicDomainTemplate: "%s.example.com"
---
# секция, описывающая параметры облачного провайдера
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: GCPClusterConfiguration
# layout — архитектура расположения ресурсов в облаке
layout: Standard
standard:
# список имен публичных статических IP-адресов для `Cloud NAT`
# возможно, захотите изменить
cloudNATAddresses: []
# параметры доступа к облаку GCP
provider:
# Пример заполнения serviceAccountJSON:
# serviceAccountJSON: |
# {
# "type": "service_account",
# "project_id": "somproject-sandbox",
# "private_key_id": "***",
# "private_key": "***",
# "client_email": "mail@somemail.com",
# "client_id": "<client_id>",
# "auth_uri": "https://accounts.google.com/o/oauth2/auth",
# "token_uri": "https://oauth2.googleapis.com/token",
# "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
# "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/somproject-sandbox.gserviceaccount.com"
# }
serviceAccountJSON: *!CHANGE_SA_JSON*
# регион привязки кластера
# возможно, захотите изменить
region: europe-west3
# список меток ресурсов кластера, используются для идентификации в качестве префиксов ресурсов
labels:
kube: example
# параметры группы master-узлов
masterNodeGroup:
# количество реплик мастера
# если будет больше одного master-узла, то control-plane на всех master-узлах будет развернут автоматическии
replicas: 1
# параметры инстанса
instanceClass:
# тип используемого инстанса
# возможно, захотите изменить
machineType: n1-standard-4
# используемый образ
# возможно, захотите изменить
image: projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20190911
# отключить назначение внешнего IP-адреса для кластера
disableExternalIP: false
# адресное пространство узлов кластера
subnetworkCIDR: 10.0.0.0/24
# публичная часть SSH-ключа для доступа к узлам облака
sshKey: ssh-rsa <SSH_PUBLIC_KEY>
Лицензионный ключ доступа Deckhouse Platform Enterprise Edition
Лицензионный ключ используется компонентами Deckhouse для доступа к геораспределенному container registry, в котором хранятся все используемые Deckhouse образы.
Приведенные на данной странице команды и файлы конфигурации сгенерированы с учетом введенного лицензионного ключа.
Запросить лицензионный ключ
Заполните форму и мы отправим данные для доступа вам на почту.
Введите лицензионный ключ
Ниже сгенерированы рекомендованные настройки для установки Deckhouse Platform Enterprise Edition:
config.yml
— файл первичной конфигурации кластера. Содержит параметры инсталлятора, параметры доступа облачного проавайдера и начальные параметры кластера.resources.yml
— описание ресурсов для создания после установки (настройки узлов и Ingress-контроллера).
Обратите внимание:
- обязательные для самостоятельного заполнения параметры.
- опциональные параметры.
- Если вы запускаете инсталлятор под Windows, то убедитесь, что кодировка создаваемых YAML-файлов конфигурации UTF-8 (либо удалите примечания на русском языке).
Полное описание параметров конфигурации cloud-провайдеров вы можете найти в документации.
Deckhouse Platform использует каналы обновлений (release channels), о чём вы можете подробнее узнать в документации.
# секция с общими параметрами кластера (ClusterConfiguration)
# используемая версия API Deckhouse Platform
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: ClusterConfiguration
# тип инфраструктуры: bare metal (Static) или облако (Cloud)
clusterType: Cloud
# параметры облачного провайдера
cloud:
# используемый облачный провайдер
provider: GCP
# префикс для объектов кластера для их отличия (используется, например, при маршрутизации)
prefix: "cloud-demo"
# адресное пространство Pod’ов кластера
podSubnetCIDR: 10.111.0.0/16
# адресное пространство для service’ов кластера
serviceSubnetCIDR: 10.222.0.0/16
# устанавливаемая версия Kubernetes
kubernetesVersion: "1.21"
# домен кластера
clusterDomain: "cluster.local"
---
# секция первичной инициализации кластера Deckhouse (InitConfiguration)
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: InitConfiguration
# секция с параметрами Deckhouse
deckhouse:
# адрес Docker registry с образами Deckhouse
imagesRepo: registry.deckhouse.io/deckhouse/ee
# строка с ключом для доступа к Docker registry (сгенерировано автоматически для вашего токена доступа)
registryDockerCfg: <YOUR_ACCESS_STRING_IS_HERE>
# используемый канал обновлений
releaseChannel: Stable
configOverrides:
global:
modules:
# шаблон, который будет использоваться для составления адресов системных приложений в кластере
# например, Grafana для %s.example.com будет доступна на домене grafana.example.com
publicDomainTemplate: "%s.example.com"
---
# секция, описывающая параметры облачного провайдера
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: GCPClusterConfiguration
# layout — архитектура расположения ресурсов в облаке
layout: WithoutNAT
# параметры доступа к облаку GCP
provider:
# Пример заполнения serviceAccountJSON:
# serviceAccountJSON: |
# {
# "type": "service_account",
# "project_id": "somproject-sandbox",
# "private_key_id": "***",
# "private_key": "***",
# "client_email": "mail@somemail.com",
# "client_id": "<client_id>",
# "auth_uri": "https://accounts.google.com/o/oauth2/auth",
# "token_uri": "https://oauth2.googleapis.com/token",
# "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
# "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/somproject-sandbox.gserviceaccount.com"
# }
serviceAccountJSON: *!CHANGE_SA_JSON*
# регион привязки кластера
# возможно, захотите изменить
region: europe-west3
# список меток ресурсов кластера, используются для идентификации в качестве префиксов ресурсов
labels:
kube: example
# параметры группы master-узлов
masterNodeGroup:
# количество реплик мастера
# если будет больше одного master-узла, то control-plane на всех master-узлах будет развернут автоматическии
replicas: 1
# параметры инстанса
instanceClass:
# тип используемого инстанса
# возможно, захотите изменить
machineType: n1-standard-4
# используемый образ
# возможно, захотите изменить
image: projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20190911
# отключить назначение внешнего IP-адреса для кластера
disableExternalIP: false
# адресное пространство узлов кластера
subnetworkCIDR: 10.0.0.0/24
# публичная часть SSH-ключа для доступа к узлам облака
sshKey: ssh-rsa <SSH_PUBLIC_KEY>
Лицензионный ключ доступа Deckhouse Platform Enterprise Edition
Лицензионный ключ используется компонентами Deckhouse для доступа к геораспределенному container registry, в котором хранятся все используемые Deckhouse образы.
Приведенные на данной странице команды и файлы конфигурации сгенерированы с учетом введенного лицензионного ключа.
Запросить лицензионный ключ
Заполните форму и мы отправим данные для доступа вам на почту.
Введите лицензионный ключ
Ниже сгенерированы рекомендованные настройки для установки Deckhouse Platform Enterprise Edition:
config.yml
— файл первичной конфигурации кластера. Содержит параметры инсталлятора, параметры доступа облачного проавайдера и начальные параметры кластера.resources.yml
— описание ресурсов для создания после установки (настройки узлов и Ingress-контроллера).
Обратите внимание:
- обязательные для самостоятельного заполнения параметры.
- опциональные параметры.
- Если вы запускаете инсталлятор под Windows, то убедитесь, что кодировка создаваемых YAML-файлов конфигурации UTF-8 (либо удалите примечания на русском языке).
Полное описание параметров конфигурации cloud-провайдеров вы можете найти в документации.
Deckhouse Platform использует каналы обновлений (release channels), о чём вы можете подробнее узнать в документации.
# секция с общими параметрами кластера (ClusterConfiguration)
# используемая версия API Deckhouse Platform
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: ClusterConfiguration
# тип инфраструктуры: bare metal (Static) или облако (Cloud)
clusterType: Cloud
# параметры облачного провайдера
cloud:
# используемый облачный провайдер
provider: GCP
# префикс для объектов кластера для их отличия (используется, например, при маршрутизации)
prefix: "cloud-demo"
# адресное пространство Pod’ов кластера
podSubnetCIDR: 10.111.0.0/16
# адресное пространство для service’ов кластера
serviceSubnetCIDR: 10.222.0.0/16
# устанавливаемая версия Kubernetes
kubernetesVersion: "1.21"
# домен кластера
clusterDomain: "cluster.local"
---
# секция первичной инициализации кластера Deckhouse (InitConfiguration)
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: InitConfiguration
# секция с параметрами Deckhouse
deckhouse:
# адрес Docker registry с образами Deckhouse
imagesRepo: registry.deckhouse.io/deckhouse/ee
# строка с ключом для доступа к Docker registry (сгенерировано автоматически для вашего токена доступа)
registryDockerCfg: <YOUR_ACCESS_STRING_IS_HERE>
# используемый канал обновлений
releaseChannel: Stable
configOverrides:
global:
modules:
# шаблон, который будет использоваться для составления адресов системных приложений в кластере
# например, Grafana для %s.example.com будет доступна на домене grafana.example.com
publicDomainTemplate: "%s.example.com"
---
# секция, описывающая параметры облачного провайдера
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
# тип секции конфигурации
kind: GCPClusterConfiguration
# layout — архитектура расположения ресурсов в облаке
layout: Standard
standard:
# список имен публичных статических IP-адресов для `Cloud NAT`
# возможно, захотите изменить
cloudNATAddresses: []
# параметры доступа к облаку GCP
provider:
# Пример заполнения serviceAccountJSON:
# serviceAccountJSON: |
# {
# "type": "service_account",
# "project_id": "somproject-sandbox",
# "private_key_id": "***",
# "private_key": "***",
# "client_email": "mail@somemail.com",
# "client_id": "<client_id>",
# "auth_uri": "https://accounts.google.com/o/oauth2/auth",
# "token_uri": "https://oauth2.googleapis.com/token",
# "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
# "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/somproject-sandbox.gserviceaccount.com"
# }
serviceAccountJSON: *!CHANGE_SA_JSON*
# регион привязки кластера
# возможно, захотите изменить
region: europe-west3
# список меток ресурсов кластера, используются для идентификации в качестве префиксов ресурсов
labels:
kube: example
# параметры группы master-узлов
masterNodeGroup:
# количество реплик мастера
# если будет больше одного master-узла, то control-plane на всех master-узлах будет развернут автоматическии
replicas: 1
# параметры инстанса
instanceClass:
# тип используемого инстанса
# возможно, захотите изменить
machineType: n1-standard-4
# используемый образ
# возможно, захотите изменить
image: projects/ubuntu-os-cloud/global/images/ubuntu-1804-bionic-v20190911
# отключить назначение внешнего IP-адреса для кластера
disableExternalIP: false
# адресное пространство узлов кластера
subnetworkCIDR: 10.0.0.0/24
# публичная часть SSH-ключа для доступа к узлам облака
sshKey: ssh-rsa <SSH_PUBLIC_KEY>
Описание ресурсов для набора узлов “Минимальный”.
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, обеспечивающими рабочую нагрузку
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: GCPInstanceClass
metadata:
# имя инстанс класса
name: worker
spec:
diskSizeGb: 40
# используемый Machine type для данного инстанс-класса
# возможно, захотите изменить
machineType: n2-standard-4
---
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
name: worker
spec:
cloudInstances:
classReference:
kind: GCPInstanceClass
name: worker
# минимальное количество инстансов в зоне
minPerZone: 1
# максимальное количество инстансов в зоне
maxPerZone: 1
# возможно, захотите изменить
zones:
- europe-west3-a
disruptions:
approvalMode: Automatic
nodeType: CloudEphemeral
---
# секция, описывающая параметры nginx ingress controller
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: IngressNginxController
metadata:
name: nginx
spec:
# имя Ingress-класса для обслуживания Ingress NGINX controller
ingressClass: nginx
# способ поступления трафика из внешнего мира
inlet: LoadBalancer
# описывает, на каких узлах будет находиться компонент. Лейбл node.deckhouse.io/group: <NODE_GROUP_NAME> устанавливается автоматически.
nodeSelector:
node.deckhouse.io/group: worker
---
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: admin
spec:
# список учётных записей Kubernetes RBAC
subjects:
- kind: User
name: admin@example.com
# предустановленный шаблон уровня доступа
accessLevel: SuperAdmin
# разрешить пользователю делать kubectl port-forward
portForwarding: true
---
# секция, описывающая параметры статического пользователя
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: User
metadata:
name: admin
spec:
# e-mail пользователя
email: admin@example.com
# это хэш пароля <GENERATED_PASSWORD>, сгенерированного сейчас
# сгенерируйте свой или используйте этот, но только для тестирования
# echo "<GENERATED_PASSWORD>" | htpasswd -BinC 10 "" | cut -d: -f2
# возможно, захотите изменить
password: <GENERATED_PASSWORD_HASH>
Описание ресурсов для набора узлов “Мультимастер”.
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, обеспечивающими рабочую нагрузку
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: GCPInstanceClass
metadata:
# имя инстанс класса
name: worker
spec:
diskSizeGb: 40
# используемый Machine type для данного инстанс-класса
# возможно, захотите изменить
machineType: n2-standard-4
---
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
name: worker
spec:
cloudInstances:
classReference:
kind: GCPInstanceClass
name: worker
# минимальное количество инстансов в зоне
minPerZone: 2
# максимальное количество инстансов в зоне
maxPerZone: 2
# возможно, захотите изменить
zones:
- europe-west3-a
disruptions:
approvalMode: Automatic
nodeType: CloudEphemeral
---
# секция, описывающая параметры nginx ingress controller
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: IngressNginxController
metadata:
name: nginx
spec:
# имя Ingress-класса для обслуживания Ingress NGINX controller
ingressClass: nginx
# способ поступления трафика из внешнего мира
inlet: LoadBalancer
# описывает, на каких узлах будет находиться компонент. Лейбл node.deckhouse.io/group: <NODE_GROUP_NAME> устанавливается автоматически.
nodeSelector:
node.deckhouse.io/group: worker
---
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: admin
spec:
# список учётных записей Kubernetes RBAC
subjects:
- kind: User
name: admin@example.com
# предустановленный шаблон уровня доступа
accessLevel: SuperAdmin
# разрешить пользователю делать kubectl port-forward
portForwarding: true
---
# секция, описывающая параметры статического пользователя
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: User
metadata:
name: admin
spec:
# e-mail пользователя
email: admin@example.com
# это хэш пароля <GENERATED_PASSWORD>, сгенерированного сейчас
# сгенерируйте свой или используйте этот, но только для тестирования
# echo "<GENERATED_PASSWORD>" | htpasswd -BinC 10 "" | cut -d: -f2
# возможно, захотите изменить
password: <GENERATED_PASSWORD_HASH>
Описание ресурсов для набора узлов “Рекомендовано для production”.
# секция, описывающая параметры инстанс-класса для узлов c системными компонентами
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: GCPInstanceClass
metadata:
# имя инстанс класса
name: system
spec:
diskSizeGb: 40
# используемый Machine type для данного инстанс-класса
# возможно, захотите изменить
machineType: n2-standard-4
---
# секция, описывающая параметры группы узлов c системными компонентами
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
name: system
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
# ссылка на объект InstanceClass
classReference:
kind: GCPInstanceClass
name: system
# минимальное количество инстансов в зоне
minPerZone: 2
# максимальное количество инстансов в зоне
maxPerZone: 2
# переопределение перечня зон, в которых создаются инстансы
# возможно, захотите изменить
zones:
- europe-west3-a
disruptions:
approvalMode: Automatic
nodeTemplate:
# аналогично стандартному полю metadata.labels
labels:
node-role.deckhouse.io/system: ""
# аналогично полю .spec.taints из объекта Node
# доступны только поля effect, key, value
taints:
- effect: NoExecute
key: dedicated.deckhouse.io
value: system
nodeType: CloudEphemeral
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, принимающими трафик
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: GCPInstanceClass
metadata:
# имя инстанс класса
name: frontend
# возможно, захотите изменить
spec:
diskSizeGb: 40
# используемый Machine type для данного инстанс-класса
# возможно, захотите изменить
machineType: n2-standard-4
---
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
name: frontend
spec:
cloudInstances:
classReference:
kind: GCPInstanceClass
name: frontend
# минимальное количество инстансов в зоне
minPerZone: 2
# максимальное количество инстансов в зоне
maxPerZone: 3
# возможно, захотите изменить
zones:
- europe-west3-a
disruptions:
approvalMode: Automatic
nodeTemplate:
# аналогично стандартному полю metadata.labels
labels:
node-role.deckhouse.io/frontend: ""
taints:
- effect: NoExecute
key: dedicated.deckhouse.io
value: frontend
nodeType: CloudEphemeral
---
# секция, описывающая параметры инстанс-класса для узлов c компонентами, обеспечивающими рабочую нагрузку
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: GCPInstanceClass
metadata:
# имя инстанс класса
name: worker
spec:
diskSizeGb: 40
# используемый Machine type для данного инстанс-класса
# возможно, захотите изменить
machineType: n2-standard-4
---
apiVersion: deckhouse.io/v1
kind: NodeGroup
metadata:
name: worker
spec:
# параметры заказа облачных виртуальных машин
cloudInstances:
classReference:
kind: GCPInstanceClass
name: worker
# минимальное количество инстансов в зоне
minPerZone: 1
# максимальное количество инстансов в зоне
maxPerZone: 1
# возможно, захотите изменить
zones:
- europe-west3-a
disruptions:
approvalMode: Automatic
nodeType: CloudEphemeral
---
# секция, описывающая параметры nginx ingress controller
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: IngressNginxController
metadata:
name: nginx
spec:
# имя Ingress-класса для обслуживания Ingress NGINX controller
ingressClass: nginx
# способ поступления трафика из внешнего мира
inlet: LoadBalancer
# описывает, на каких узлах будет находиться компонент
nodeSelector:
node-role.kubernetes.io/frontend: ''
---
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: admin
spec:
# список учётных записей Kubernetes RBAC
subjects:
- kind: User
name: admin@example.com
# предустановленный шаблон уровня доступа
accessLevel: SuperAdmin
# разрешить пользователю делать kubectl port-forward
portForwarding: true
---
# секция, описывающая параметры статического пользователя
# используемая версия API Deckhouse
apiVersion: deckhouse.io/v1
kind: User
metadata:
name: admin
spec:
# e-mail пользователя
email: admin@example.com
# это хэш пароля <GENERATED_PASSWORD>, сгенерированного сейчас
# сгенерируйте свой или используйте этот, но только для тестирования
# echo "<GENERATED_PASSWORD>" | htpasswd -BinC 10 "" | cut -d: -f2
# возможно, захотите изменить
password: <GENERATED_PASSWORD_HASH>
Для установки Deckhouse Platform используется Docker-образ, в который необходимо передать конфигурационные файлы и SSH-ключи доступа на master-узлы.
Запустите установщик на персональном компьютере.
docker run --pull=always -it -v "$PWD/config.yml:/config.yml" -v "$HOME/.ssh/:/tmp/.ssh/" \
-v "$PWD/resources.yml:/resources.yml" -v "$PWD/dhctl-tmp:/tmp/dhctl" registry.deckhouse.io/deckhouse/ce/install:stable bash
docker run --pull=always -it -v "%cd%\config.yml:/config.yml" -v "%userprofile%\.ssh\:/tmp/.ssh/" -v "%cd%\resources.yml:/resources.yml" -v "%cd%\dhctl-tmp:/tmp/dhctl" registry.deckhouse.io/deckhouse/ce/install:stable bash -c "chmod 400 /tmp/.ssh/id_rsa; bash"
Внутри контейнера выполните команду:
dhctl bootstrap --ssh-user=user --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml --resources=/resources.yml
Здесь, в параметре --ssh-user
указывается имя пользователя по умолчанию для выбранного образа виртуальной машины. В случае c Google Cloud, это user
(для предложенных в этом руководстве образов).
Примечания:
-
Благодаря использованию параметра
-v "$PWD/dhctl-tmp:/tmp/dhctl"
состояние данных Terraform-инстяллятора будет сохранено во временной директории на хосте запуска, что позволит корректно продолжить установку в случае прерывания работы контейнера с инсталлятором. В случае возникновения проблем во время разворачивания кластера, для прерывания процесса установки и удаления созданных при инсталляции объектов воспользуйтесь следующей командой (файл конфигурации должен совпадать с тем, с которым производилось разворачивание кластера):
dhctl bootstrap-phase abort --ssh-user=user --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml
dhctl bootstrap-phase abort --ssh-user=user --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml
По окончании установки произойдёт возврат к командной строке.
Почти все готово для полноценной работы Deckhouse Platform!
Для установки Deckhouse Platform используется Docker-образ, в который необходимо передать конфигурационные файлы и SSH-ключи доступа на master-узлы.
Запустите установщик на персональном компьютере.
echo <LICENSE_TOKEN> | docker login -u license-token --password-stdin registry.deckhouse.io
docker run --pull=always -it -v "$PWD/config.yml:/config.yml" -v "$HOME/.ssh/:/tmp/.ssh/" \
-v "$PWD/resources.yml:/resources.yml" -v "$PWD/dhctl-tmp:/tmp/dhctl" registry.deckhouse.io/deckhouse/ee/install:stable bash
Авторизуйтесь на персональном компьютере в container image registry, введя лицензионный ключ на запрос пароля:
docker login -u license-token registry.deckhouse.io
Запустите контейнер с установщиком:
docker run --pull=always -it -v "%cd%\config.yml:/config.yml" -v "%userprofile%\.ssh\:/tmp/.ssh/" -v "%cd%\resources.yml:/resources.yml" -v "%cd%\dhctl-tmp:/tmp/dhctl" registry.deckhouse.io/deckhouse/ee/install:stable bash -c "chmod 400 /tmp/.ssh/id_rsa; bash"
Внутри контейнера выполните команду:
dhctl bootstrap --ssh-user=user --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml --resources=/resources.yml
Здесь, в параметре --ssh-user
указывается имя пользователя по умолчанию для выбранного образа виртуальной машины. В случае c Google Cloud, это user
(для предложенных в этом руководстве образов).
Примечания:
-
Благодаря использованию параметра
-v "$PWD/dhctl-tmp:/tmp/dhctl"
состояние данных Terraform-инстяллятора будет сохранено во временной директории на хосте запуска, что позволит корректно продолжить установку в случае прерывания работы контейнера с инсталлятором. В случае возникновения проблем во время разворачивания кластера, для прерывания процесса установки и удаления созданных при инсталляции объектов воспользуйтесь следующей командой (файл конфигурации должен совпадать с тем, с которым производилось разворачивание кластера):
dhctl bootstrap-phase abort --ssh-user=user --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml
dhctl bootstrap-phase abort --ssh-user=user --ssh-agent-private-keys=/tmp/.ssh/id_rsa --config=/config.yml
По окончании установки произойдёт возврат к командной строке.
Почти все готово для полноценной работы Deckhouse Platform!