Пример назначения прав администратору кластера
| Example of assigning rights to a cluster administrator
|
Пример использует экспериментальную ролевую модель.
| The example uses the experimental role-based.
|
Для назначения прав администратору кластера используйте роль d8:manage:all:manager в ClusterRoleBinding .
| To grant access to a cluster administrator, use the role d8:manage:all:manager in ClusterRoleBinding .
|
Пример назначения прав администратору кластера (User joe ):
| Example of assigning rights to a cluster administrator (User joe ):
|
yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: cluster-admin-joe
subjects:
- kind: User
name: joe
apiGroup: rbac.authorization.k8s.io
roleRef:
kind: ClusterRole
name: d8:manage:all:manager
apiGroup: rbac.authorization.k8s.io
| yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: cluster-admin-joe
subjects:
- kind: User
name: joe
apiGroup: rbac.authorization.k8s.io
roleRef:
kind: ClusterRole
name: d8:manage:all:manager
apiGroup: rbac.authorization.k8s.io
|
Права, которые получит пользователь, будут ограничены рамками пространств имён, начинающихся с d8- или kube- .
| The rights that the user will get will be limited to namespaces starting with d8- or kube- .
|
Пользователю будут доступны следующие права:
- Просмотр, изменение, удаление и создание ресурсов Kubernetes и модулей DKP.
- Изменение конфигурации модулей (просмотр, изменение, удаление и создание ресурсов
moduleConfig ).
- Выполнение следующих команд к подам и сервисам:
kubectl attach ;
kubectl exec ;
kubectl port-forward ;
kubectl proxy .
| The user will be able to:
- View, modify, delete, and create Kubernetes resources and DKP modules;
- Modify module configurations (view, modify, delete, and create
moduleConfig resources);
- Execute the following commands on pods and services:
kubectl attach
kubectl exec
kubectl port-forward
kubectl proxy
|
Пример назначения прав сетевому администратору
| Example of assigning rights to a network administrator
|
Пример использует экспериментальную ролевую модель.
| The example uses the experimental role-based.
|
Для назначения прав сетевому администратору на управление сетевой подсистемой кластера используйте роль d8:manage:networking:manager в ClusterRoleBinding .
| To grant a network administrator access to manage the network subsystem of the cluster, use the role d8:manage:networking:manager in ClusterRoleBinding .
|
Пример назначения прав сетевому администратору (User joe ):
| Example of assigning rights to a network administrator (User joe ):
|
yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: network-admin-joe
subjects:
- kind: User
name: joe
apiGroup: rbac.authorization.k8s.io
roleRef:
kind: ClusterRole
name: d8:manage:networking:manager
apiGroup: rbac.authorization.k8s.io
| yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
name: network-admin-joe
subjects:
- kind: User
name: joe
apiGroup: rbac.authorization.k8s.io
roleRef:
kind: ClusterRole
name: d8:manage:networking:manager
apiGroup: rbac.authorization.k8s.io
|
Права, которые получит пользователь, будут ограничены следующим списком пространств имён модулей DKP из подсистемы networking (фактический список зависит от списка включённых в кластере модулей):
d8-cni-cilium ;
d8-cni-flannel ;
d8-cni-simple-bridge ;
d8-ingress-nginx ;
d8-istio ;
d8-metallb ;
d8-network-gateway ;
d8-openvpn ;
d8-static-routing-manager ;
d8-system ;
kube-system .
| The rights that the user will get will be limited to the following list of DKP module namespaces from the networking subsystem (the actual list depends on the list of modules included in the cluster):
d8-cni-cilium
d8-cni-flannel
d8-cni-simple-bridge
d8-ingress-nginx
d8-istio
d8-metallb
d8-network-gateway
d8-openvpn
d8-static-routing-manager
d8-system
kube-system
|
Пользователю будут доступны следующие права:
- Просмотр, изменение, удаление и создание стандартных ресурсов Kubernetes в пространстве имён модулей из подсистемы
networking .
| The user will be able to:
- View, modify, delete, and create standard Kubernetes resources in the module namespace from the
networking subsystem.
|
Пример ресурсов, которыми сможет управлять пользователь (список не полный):
Certificate ;
CertificateRequest ;
ConfigMap ;
ControllerRevision ;
CronJob ;
DaemonSet ;
Deployment ;
Event ;
HorizontalPodAutoscaler ;
Ingress ;
Issuer ;
Job ;
Lease ;
LimitRange ;
NetworkPolicy ;
PersistentVolumeClaim ;
Pod ;
PodDisruptionBudget ;
ReplicaSet ;
ReplicationController ;
ResourceQuota ;
Role ;
RoleBinding ;
Secret ;
Service ;
ServiceAccount ;
StatefulSet ;
VerticalPodAutoscaler ;
VolumeSnapshot .
| Example of resources that the user will be able to manage (the list is not exhaustive):
Certificate
CertificateRequest
ConfigMap
ControllerRevision
CronJob
DaemonSet
Deployment
Event
HorizontalPodAutoscaler
Ingress
Issuer
Job
Lease
LimitRange
NetworkPolicy
PersistentVolumeClaim
Pod
PodDisruptionBudget
ReplicaSet
ReplicationController
ResourceQuota
Role
RoleBinding
Secret
Service
ServiceAccount
StatefulSet
VerticalPodAutoscaler
VolumeSnapshot
|
- Просмотр, изменение, удаление и создание ресурсов в пространстве имён модулей из подсистемы
networking .
|
- View, modify, delete, and create the following resources in the modules namespace from the
networking subsystem:
|
Список ресурсов, которыми сможет управлять пользователь:
EgressGateway ;
EgressGatewayPolicy ;
FlowSchema ;
IngressClass ;
IngressIstioController ;
IngressNginxController ;
IPRuleSet ;
IstioFederation ;
IstioMulticluster ;
RoutingTable .
| A list of resources that the user will be able to manage:
EgressGateway
EgressGatewayPolicy
FlowSchema
IngressClass
IngressIstioController
IngressNginxController
IPRuleSet
IstioFederation
IstioMulticluster
RoutingTable
|
- Изменение конфигурации модулей (просмотр, изменение, удаление и создание ресурсов moduleConfig) из подсистемы
networking .
|
- Modify the configuration of modules (view, change, delete, and create moduleConfig resources) from the
networking subsystem.
|
Список модулей, которыми сможет управлять пользователь:
cilium-hubble ;
cni-cilium ;
cni-flannel ;
cni-simple-bridge ;
flow-schema ;
ingress-nginx ;
istio ;
kube-dns ;
kube-proxy ;
metallb ;
network-gateway ;
network-policy-engine ;
node-local-dns ;
openvpn ;
static-routing-manager .
| List of modules that the user will be able to manage:
cilium-hubble
cni-cilium
cni-flannel
cni-simple-bridge
flow-schema
ingress-nginx
istio
kube-dns
kube-proxy
metallb
network-gateway
network-policy-engine
node-local-dns
openvpn
static-routing-manager
- Execute the following commands with pods and services in the modules namespace from the
networking subsystem:
kubectl attach
kubectl exec
kubectl port-forward
kubectl proxy
|
- Выполнение следующих команд к подам и сервисам в пространстве имён модулей из подсистемы
networking :
kubectl attach ;
kubectl exec ;
kubectl port-forward ;
kubectl proxy .
| Example of assigning administrative rights to a user within a namespace
|
Пример назначения административных прав пользователю в рамках пространства имён
| The example uses the experimental role-based.
|
Пример использует экспериментальную ролевую модель.
| To assign rights to a user manage application resources within a namespace, but without the ability to configure DKP modules, use the role d8:use:role:admin in RoleBinding in the corresponding namespace.
|
Для назначения прав на управление ресурсами приложений в рамках пространства имён, но без возможности настройки модулей DKP, используйте роль d8:use:role:admin в RoleBinding в соответствующем пространстве имён.
| Example of assigning rights to an application developer (User app-developer ) in namespace myapp :
|
Пример назначения прав разработчику приложений (User app-developer ) в пространстве имён myapp :
| yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
name: myapp-developer
namespace: myapp
subjects:
- kind: User
name: app-developer
apiGroup: rbac.authorization.k8s.io
roleRef:
kind: ClusterRole
name: d8:use:role:admin
apiGroup: rbac.authorization.k8s.io
|
yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: RoleBinding
metadata:
name: myapp-developer
namespace: myapp
subjects:
- kind: User
name: app-developer
apiGroup: rbac.authorization.k8s.io
roleRef:
kind: ClusterRole
name: d8:use:role:admin
apiGroup: rbac.authorization.k8s.io
| In the myapp namespace, the user will be able to:
- View, modify, delete, and create Kubernetes resources. For example, the following resources (the list is not exhaustive):
Certificate
CertificateRequest
ConfigMap
ControllerRevision
CronJob
DaemonSet
Deployment
Event
HorizontalPodAutoscaler
Ingress
Issuer
Job
Lease
LimitRange
NetworkPolicy
PersistentVolumeClaim
Pod
PodDisruptionBudget
ReplicaSet
ReplicationController
ResourceQuota
Role
RoleBinding
Secret
Service
ServiceAccount
StatefulSet
VerticalPodAutoscaler
VolumeSnapshot
- View, edit, delete, and create the following DKP module resources:
DexAuthenticator
DexClient
PodLogginConfig
- Execute the following commands for pods and services:
kubectl attach
kubectl exec
kubectl port-forward
kubectl proxy
|
В рамках пространства имён myapp пользователю будут доступны следующие права:
- Просмотр, изменение, удаление и создание ресурсов Kubernetes. Например, следующих ресурсов (список не полный):
Certificate ;
CertificateRequest ;
ConfigMap ;
ControllerRevision ;
CronJob ;
DaemonSet ;
Deployment ;
Event ;
HorizontalPodAutoscaler ;
Ingress ;
Issuer ;
Job ;
Lease ;
LimitRange ;
NetworkPolicy ;
PersistentVolumeClaim ;
Pod ;
PodDisruptionBudget ;
ReplicaSet ;
ReplicationController ;
ResourceQuota ;
Role ;
RoleBinding ;
Secret ;
Service ;
ServiceAccount ;
StatefulSet ;
VerticalPodAutoscaler ;
VolumeSnapshot .
- Просмотр, изменение, удаление и создание следующих ресурсов модулей DKP:
DexAuthenticator ;
DexClient ;
PodLogginConfig .
- Выполнение следующих команд к подам и сервисам:
kubectl attach ;
kubectl exec ;
kubectl port-forward ;
kubectl proxy .
| An example of ClusterAuthorizationRule
|
Пример ClusterAuthorizationRule
| yaml
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: test-rule
spec:
subjects:
- kind: User
name: some@example.com
- kind: ServiceAccount
name: gitlab-runner-deploy
namespace: d8-service-accounts
- kind: Group
name: some-group-name
accessLevel: PrivilegedUser
portForwarding: true
This option is only available if the enableMultiTenancy parameter is set (Enterprise Edition version)
allowAccessToSystemNamespaces: false
This option is only available if the enableMultiTenancy parameter is set (Enterprise Edition version)
namespaceSelector:
labelSelector:
matchExpressions:
- key: stage
operator: In
values:
- test
- review
matchLabels:
team: frontend
|
yaml
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: test-rule
spec:
subjects:
- kind: User
name: some@example.com
- kind: ServiceAccount
name: gitlab-runner-deploy
namespace: d8-service-accounts
- kind: Group
name: some-group-name
accessLevel: PrivilegedUser
portForwarding: true
Опция доступна только при включенном режиме enableMultiTenancy (версия Enterprise Edition).
allowAccessToSystemNamespaces: false
Опция доступна только при включенном режиме enableMultiTenancy (версия Enterprise Edition).
namespaceSelector:
labelSelector:
matchExpressions:
- key: stage
operator: In
values:
- test
- review
matchLabels:
team: frontend
| Creating a user
|
Создание пользователя
| There are two types of users in Kubernetes:
|
В Kubernetes есть две категории пользователей:
|
- Service accounts managed by Kubernetes via the API;
- Regular users managed by some external tool that the cluster administrator configures. There are many authentication mechanisms and, accordingly, many ways to create users. Currently, two authentication methods are supported:
- Via the user-authn module.
- Via the certificates.
|
- ServiceAccount’ы, учёт которых ведёт сам Kubernetes через API.
- Остальные пользователи, учёт которых ведёт не сам Kubernetes, а некоторый внешний софт, который настраивает администратор кластера, — существует множество механизмов аутентификации и, соответственно, множество способов заводить пользователей. В настоящий момент поддерживаются два способа аутентификации:
- через модуль user-authn;
- с помощью сертификатов.
| When issuing the authentication certificate, you need to specify the name (CN=<name> ), the required number of groups (O=<group> ), and sign it using the root CA of the cluster. It is this mechanism that authenticates you in the cluster when, for example, you use kubectl on a bastion node.
|
При выпуске сертификата для аутентификации нужно указать в нём имя (CN=<имя> ), необходимое количество групп (O=<группа> ) и подписать его с помощью корневого CA-кластера. Именно этим механизмом вы аутентифицируетесь в кластере, когда, например, используете kubectl на bastion-узле.
| Creating a ServiceAccount for a machine and granting it access
|
Создание ServiceAccount для сервера и предоставление ему доступа
| You may need to create a ServiceAccount with access to the Kubernetes API when, for example, an application is deployed using a CI system.
|
Создание ServiceAccount с доступом к Kubernetes API может потребоваться, например, при настройке развёртывания приложений через CI-системы.
|
- Create a ServiceAccount, e.g., in the
d8-service-accounts namespace:
|
- Создайте ServiceAccount, например в пространстве имён
d8-service-accounts :
| shell
kubectl create -f - «EOF
apiVersion: v1
kind: ServiceAccount
metadata:
name: gitlab-runner-deploy
namespace: d8-service-accounts
—
apiVersion: v1
kind: Secret
metadata:
name: gitlab-runner-deploy-token
namespace: d8-service-accounts
annotations:
kubernetes.io/service-account.name: gitlab-runner-deploy
type: kubernetes.io/service-account-token
EOF
|
shell
kubectl create -f - «EOF
apiVersion: v1
kind: ServiceAccount
metadata:
name: gitlab-runner-deploy
namespace: d8-service-accounts
—
apiVersion: v1
kind: Secret
metadata:
name: gitlab-runner-deploy-token
namespace: d8-service-accounts
annotations:
kubernetes.io/service-account.name: gitlab-runner-deploy
type: kubernetes.io/service-account-token
EOF
|
- Grant it the necessary privileges (using the ClusterAuthorizationRule custom resource):
|
- Дайте необходимые ServiceAccount-права (используя custom resource ClusterAuthorizationRule):
| shell
kubectl create -f - «EOF
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: gitlab-runner-deploy
spec:
subjects:
- kind: ServiceAccount
name: gitlab-runner-deploy
namespace: d8-service-accounts
accessLevel: SuperAdmin
This option is only available if the enableMultiTenancy parameter is set (Enterprise Edition version)
allowAccessToSystemNamespaces: true
EOF
|
shell
kubectl create -f - «EOF
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: gitlab-runner-deploy
spec:
subjects:
- kind: ServiceAccount
name: gitlab-runner-deploy
namespace: d8-service-accounts
accessLevel: SuperAdmin
Опция доступна только при включенном режиме enableMultiTenancy (версия Enterprise Edition).
allowAccessToSystemNamespaces: true
EOF
| If multitenancy is enabled in the Deckhouse configuration (the enableMultiTenancy parameter; it is only available in Enterprise Edition), configure the namespaces the ServiceAccount has access to (the namespaceSelector parameter).
|
Если в конфигурации Deckhouse включён режим мультитенантности (параметр enableMultiTenancy, доступен только в Enterprise Edition), настройте доступные для ServiceAccount пространства имён (параметр namespaceSelector).
|
- Set the variable values (they will be used later) by running the following commands (insert your own values):
|
- Определите значения переменных (они будут использоваться далее), выполнив следующие команды (подставьте свои значения):
| shell
export CLUSTER_NAME=my-cluster
export USER_NAME=gitlab-runner-deploy.my-cluster
export CONTEXT_NAME=${CLUSTER_NAME}-${USER_NAME}
export FILE_NAME=kube.config
|
shell
export CLUSTER_NAME=my-cluster
export USER_NAME=gitlab-runner-deploy.my-cluster
export CONTEXT_NAME=${CLUSTER_NAME}-${USER_NAME}
export FILE_NAME=kube.config
|
- Generate the
cluster section in the kubectl configuration file:
|
- Сгенерируйте секцию
cluster в файле конфигурации kubectl:
| Use one of the following options to access the cluster API server:
|
Используйте один из следующих вариантов доступа к API-серверу кластера:
|
- If there is direct access to the API server:
- Get a Kubernetes cluster CA certificate:
|
- Если есть прямой доступ до API-сервера:
- Получите сертификат CA-кластера Kubernetes:
| shell
kubectl get cm kube-root-ca.crt -o jsonpath=’{ .data.ca.crt }’ > /tmp/ca.crt
|
shell
kubectl get cm kube-root-ca.crt -o jsonpath=’{ .data.ca.crt }’ > /tmp/ca.crt
|
- Generate the
cluster section (the API server’s IP address is used for access):
|
- Сгенерируйте секцию
cluster (используется IP-адрес API-сервера для доступа):
| shell
kubectl config set-cluster $CLUSTER_NAME –embed-certs=true
–server=https://$(kubectl get ep kubernetes -o json | jq -rc ‘.subsets[0] | “(.addresses[0].ip):(.ports[0].port)”’)
–certificate-authority=/tmp/ca.crt
–kubeconfig=$FILE_NAME
|
shell
kubectl config set-cluster $CLUSTER_NAME –embed-certs=true
–server=https://$(kubectl get ep kubernetes -o json | jq -rc ‘.subsets[0] | “(.addresses[0].ip):(.ports[0].port)”’)
–certificate-authority=/tmp/ca.crt
–kubeconfig=$FILE_NAME
|
- If there is no direct access to the API server, use one of the following options:
- enable access to the API-server over the Ingress controller (the publishAPI parameter) and specify the addresses from which requests originate (the whitelistSourceRanges parameter);
- specify addresses from which requests will originate in a separate Ingress controller (the acceptRequestsFrom parameter).
|
- Если прямого доступа до API-сервера нет, используйте один следующих вариантов:
- включите доступ к API-серверу через Ingress-контроллер (параметр publishAPI) и укажите адреса, с которых будут идти запросы (параметр whitelistSourceRanges);
- укажите адреса, с которых будут идти запросы, в отдельном Ingress-контроллере (параметр acceptRequestsFrom).
|
- If a non-public CA is used:
|
- Если используется непубличный CA:
|
- Get the CA certificate from the Secret with the certificate that is used for the
api.%s domain:
|
- Получите сертификат CA из секрета с сертификатом, который используется для домена
api.%s :
| shell
kubectl -n d8-user-authn get secrets -o json
$(kubectl -n d8-user-authn get ing kubernetes-api -o jsonpath=”{.spec.tls[0].secretName}”)
| jq -rc ‘.data.”ca.crt” // .data.”tls.crt”’
| base64 -d > /tmp/ca.crt
|
shell
kubectl -n d8-user-authn get secrets -o json
$(kubectl -n d8-user-authn get ing kubernetes-api -o jsonpath=”{.spec.tls[0].secretName}”)
| jq -rc ‘.data.”ca.crt” // .data.”tls.crt”’
| base64 -d > /tmp/ca.crt
|
- Generate the
cluster section (an external domain and a CA for access are used):
|
- Сгенерируйте секцию
cluster (используется внешний домен и CA для доступа):
| shell
kubectl config set-cluster $CLUSTER_NAME –embed-certs=true
–server=https://$(kubectl -n d8-user-authn get ing kubernetes-api -ojson | jq ‘.spec.rules[].host’ -r)
–certificate-authority=/tmp/ca.crt
–kubeconfig=$FILE_NAME
|
shell
kubectl config set-cluster $CLUSTER_NAME –embed-certs=true
–server=https://$(kubectl -n d8-user-authn get ing kubernetes-api -ojson | jq ‘.spec.rules[].host’ -r)
–certificate-authority=/tmp/ca.crt
–kubeconfig=$FILE_NAME
|
- If a public CA is used. Generate the
cluster section (an external domain is used for access):
|
- Если используется публичный CA. Сгенерируйте секцию
cluster (используется внешний домен для доступа):
| shell
kubectl config set-cluster $CLUSTER_NAME
–server=https://$(kubectl -n d8-user-authn get ing kubernetes-api -ojson | jq ‘.spec.rules[].host’ -r)
–kubeconfig=$FILE_NAME
|
shell
kubectl config set-cluster $CLUSTER_NAME
–server=https://$(kubectl -n d8-user-authn get ing kubernetes-api -ojson | jq ‘.spec.rules[].host’ -r)
–kubeconfig=$FILE_NAME
|
- Generate the
user section using the token from the Secret’s ServiceAccount in the kubectl configuration file:
|
- Сгенерируйте секцию
user с токеном из секрета ServiceAccount в файле конфигурации kubectl:
| shell
kubectl config set-credentials $USER_NAME
–token=$(kubectl -n d8-service-accounts get secret gitlab-runner-deploy-token -o json |jq -r ‘.data[“token”]’ | base64 -d)
–kubeconfig=$FILE_NAME
|
shell
kubectl config set-credentials $USER_NAME
–token=$(kubectl -n d8-service-accounts get secret gitlab-runner-deploy-token -o json |jq -r ‘.data[“token”]’ | base64 -d)
–kubeconfig=$FILE_NAME
|
- Generate the context in the kubectl configuration file:
|
- Сгенерируйте контекст в файле конфигурации kubectl:
| shell
kubectl config set-context $CONTEXT_NAME
–cluster=$CLUSTER_NAME –user=$USER_NAME
–kubeconfig=$FILE_NAME
|
shell
kubectl config set-context $CONTEXT_NAME
–cluster=$CLUSTER_NAME –user=$USER_NAME
–kubeconfig=$FILE_NAME
|
- Set the generated context as the default one in the kubectl configuration file:
|
- Установите сгенерированный контекст как используемый по умолчанию в файле конфигурации kubectl:
| shell
kubectl config use-context $CONTEXT_NAME –kubeconfig=$FILE_NAME
|
shell
kubectl config use-context $CONTEXT_NAME –kubeconfig=$FILE_NAME
| How to create a user using a client certificate
|
Создание пользователя с помощью клиентского сертификата
| Creating a user
|
Создание пользователя
|
- Get the cluster’s root certificate (ca.crt and ca.key).
- Generate the user key:
|
- Получите корневой сертификат кластера (ca.crt и ca.key).
- Сгенерируйте ключ пользователя:
| shell
openssl genrsa -out myuser.key 2048
|
shell
openssl genrsa -out myuser.key 2048
|
- Create a CSR file and specify in it the username (
myuser ) and groups to which this user belongs (mygroup1 & mygroup2 ):
|
- Создайте CSR, где укажите, что требуется пользователь
myuser , который состоит в группах mygroup1 и mygroup2 :
| shell
openssl req -new -key myuser.key -out myuser.csr -subj “/CN=myuser/O=mygroup1/O=mygroup2”
|
shell
openssl req -new -key myuser.key -out myuser.csr -subj “/CN=myuser/O=mygroup1/O=mygroup2”
|
- Sign the CSR using the cluster root certificate:
|
- Подпишите CSR корневым сертификатом кластера:
| shell
openssl x509 -req -in myuser.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out myuser.crt -days 10
|
shell
openssl x509 -req -in myuser.csr -CA ca.crt -CAkey ca.key -CAcreateserial -out myuser.crt -days 10
|
- Now you can use the certificate issued in the config file:
|
- Теперь полученный сертификат можно указывать в конфиг-файле:
| shell
cat « EOF
apiVersion: v1
clusters:
- cluster:
certificate-authority-data: $(cat ca.crt | base64 -w0)
server: https://:6443
name: kubernetes
contexts:
- context:
cluster: kubernetes
user: myuser
name: myuser@kubernetes
current-context: myuser@kubernetes
kind: Config
preferences: {}
users:
- name: myuser
user:
client-certificate-data: $(cat myuser.crt | base64 -w0)
client-key-data: $(cat myuser.key | base64 -w0)
EOF
|
shell
cat « EOF
apiVersion: v1
clusters:
- cluster:
certificate-authority-data: $(cat ca.crt | base64 -w0)
server: https://<хост кластера="">:6443
name: kubernetes
contexts:
- context:
cluster: kubernetes
user: myuser
name: myuser@kubernetes
current-context: myuser@kubernetes
kind: Config
preferences: {}
users:
- name: myuser
user:
client-certificate-data: $(cat myuser.crt | base64 -w0)
client-key-data: $(cat myuser.key | base64 -w0)
EOF
| Granting access to the created user
|
Предоставление доступа созданному пользователю
| To grant access to the created user, create a `ClusterAuthorizationRule’.
|
Для предоставления доступа созданному пользователю создайте ClusterAuthorizationRule .
| Example of a ClusterAuthorizationRule :
|
Пример ClusterAuthorizationRule :
| yaml
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: myuser
spec:
subjects:
- kind: User
name: myuser
accessLevel: PrivilegedUser
portForwarding: true
|
yaml
apiVersion: deckhouse.io/v1
kind: ClusterAuthorizationRule
metadata:
name: myuser
spec:
subjects:
- kind: User
name: myuser
accessLevel: PrivilegedUser
portForwarding: true
| Configuring kube-apiserver for multi-tenancy mode
|
Настройка kube-apiserver для работы в режиме multi-tenancy
| The multi-tenancy mode, which allows you to restrict access to namespaces, is enabled by the enableMultiTenancy module’s parameter.
|
Режим multi-tenancy, позволяющий ограничивать доступ к пространству имён, включается параметром enableMultiTenancy модуля.
| Working in multi-tenancy mode requires enabling the Webhook authorization plugin and configuring a kube-apiserver. All actions necessary for the multi-tenancy mode are performed automatically by the control-plane-manager module; no additional steps are required.
|
Работа в режиме multi-tenancy требует включения плагина авторизации Webhook и выполнения настройки kube-apiserver . Все необходимые для работы режима multi-tenancy действия выполняются автоматически модулем control-plane-manager, никаких ручных действий не требуется.
| Changes to the kube-apiserver manifest that will occur after enabling multi-tenancy mode:
|
Изменения манифеста kube-apiserver , которые произойдут после включения режима multi-tenancy:
|
- The
--authorization-mode argument will be modified: the Webhook method will be added in front of the RBAC method (e.g., --authorization-mode=Node,Webhook,RBAC );
- The
--authorization-webhook-config-file=/etc/kubernetes/authorization-webhook-config.yaml will be added;
- The
volumeMounts parameter will be added:
|
- исправление аргумента
--authorization-mode . Перед методом RBAC добавится метод Webhook (например, --authorization-mode=Node,Webhook,RBAC );
- добавление аргумента
--authorization-webhook-config-file=/etc/kubernetes/authorization-webhook-config.yaml ;
- добавление
volumeMounts :
| yaml
- name: authorization-webhook-config
mountPath: /etc/kubernetes/authorization-webhook-config.yaml
readOnly: true
|
yaml
- name: authorization-webhook-config
mountPath: /etc/kubernetes/authorization-webhook-config.yaml
readOnly: true
|
- The
volumes parameter will be added:
|
| yaml
- name: authorization-webhook-config
hostPath:
path: /etc/kubernetes/authorization-webhook-config.yaml
type: FileOrCreate
|
yaml
- name: authorization-webhook-config
hostPath:
path: /etc/kubernetes/authorization-webhook-config.yaml
type: FileOrCreate
| How do I check that a user has access?
|
Как проверить, что у пользователя есть доступ?
| Execute the command below with the following parameters:
|
Необходимо выполнить следующую команду, в которой будут указаны:
|
resourceAttributes (the same as in RBAC) - target resources;
user - the name of the user;
groups - user groups;
|
resourceAttributes (как в RBAC) — к чему мы проверяем доступ;
user — имя пользователя;
groups — группы пользователя.
|
You can use Dex logs to find out groups and a username if this module is used together with the user-authn module (kubectl -n d8-user-authn logs -l app=dex ); logs available only if the user is authorized).
|
При совместном использовании с модулем user-authn группы и имя пользователя можно посмотреть в логах Dex — kubectl -n d8-user-authn logs -l app=dex (видны только при авторизации).
| shell
cat «EOF | 2>&1 kubectl create –raw /apis/authorization.k8s.io/v1/subjectaccessreviews -f - | jq .status
{
“apiVersion”: “authorization.k8s.io/v1”,
“kind”: “SubjectAccessReview”,
“spec”: {
“resourceAttributes”: {
“namespace”: “”,
“verb”: “watch”,
“version”: “v1”,
“resource”: “pods”
},
“user”: “system:kube-controller-manager”,
“groups”: [
“Admins”
]
}
}
EOF
|
shell
cat «EOF | 2>&1 kubectl create –raw /apis/authorization.k8s.io/v1/subjectaccessreviews -f - | jq .status
{
“apiVersion”: “authorization.k8s.io/v1”,
“kind”: “SubjectAccessReview”,
“spec”: {
“resourceAttributes”: {
“namespace”: “”,
“verb”: “watch”,
“version”: “v1”,
“resource”: “pods”
},
“user”: “system:kube-controller-manager”,
“groups”: [
“Admins”
]
}
}
EOF
| You will see if access is allowed and what role is used:
|
В результате увидим, есть ли доступ и на основании какой роли:
| json
{
“allowed”: true,
“reason”: “RBAC: allowed by ClusterRoleBinding "system:kube-controller-manager" of ClusterRole "system:kube-controller-manager" to User "system:kube-controller-manager"”
}
|
json
{
“allowed”: true,
“reason”: “RBAC: allowed by ClusterRoleBinding "system:kube-controller-manager" of ClusterRole "system:kube-controller-manager" to User "system:kube-controller-manager"”
}
| If the multitenancy mode is enabled in your cluster, you need to perform another check to be sure that the user has access to the namespace:
|
Если в кластере включён режим multi-tenancy, нужно выполнить ещё одну проверку, чтобы убедиться, что у пользователя есть доступ в пространство имён:
| shell
cat «EOF | 2>&1 kubectl –kubeconfig /etc/kubernetes/deckhouse/extra-files/webhook-config.yaml create –raw / -f - | jq .status
{
“apiVersion”: “authorization.k8s.io/v1”,
“kind”: “SubjectAccessReview”,
“spec”: {
“resourceAttributes”: {
“namespace”: “”,
“verb”: “watch”,
“version”: “v1”,
“resource”: “pods”
},
“user”: “system:kube-controller-manager”,
“groups”: [
“Admins”
]
}
}
EOF
|
shell
cat «EOF | 2>&1 kubectl –kubeconfig /etc/kubernetes/deckhouse/extra-files/webhook-config.yaml create –raw / -f - | jq .status
{
“apiVersion”: “authorization.k8s.io/v1”,
“kind”: “SubjectAccessReview”,
“spec”: {
“resourceAttributes”: {
“namespace”: “”,
“verb”: “watch”,
“version”: “v1”,
“resource”: “pods”
},
“user”: “system:kube-controller-manager”,
“groups”: [
“Admins”
]
}
}
EOF
| json
{
“allowed”: false
}
|
json
{
“allowed”: false
}
| The allowed: false message means that the webhook doesn’t block access. In case of webhook denying the request, you will see, e.g., the following message:
|
Сообщение allowed: false значит, что вебхук не блокирует запрос. В случае блокировки запроса вебхуком вы получите, например, следующее сообщение:
| json
{
“allowed”: false,
“denied”: true,
“reason”: “making cluster scoped requests for namespaced resources are not allowed”
}
|
json
{
“allowed”: false,
“denied”: true,
“reason”: “making cluster scoped requests for namespaced resources are not allowed”
}
| Customizing rights of high-level roles
|
Настройка прав высокоуровневых ролей
| If you want to grant more privileges to a specific high-level role, you only need to create a ClusterRole with the user-authz.deckhouse.io/access-level: <AccessLevel> annotation.
|
Если требуется добавить прав для определённой высокоуровневой роли, достаточно создать ClusterRole с аннотацией user-authz.deckhouse.io/access-level: <AccessLevel> .
| An example:
|
Пример:
| yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
annotations:
user-authz.deckhouse.io/access-level: Editor
name: user-editor
rules:
- apiGroups:
- kuma.io
resources:
- trafficroutes
- trafficroutes/finalizers
verbs:
- get
- list
- watch
- create
- update
- patch
- delete
- apiGroups:
- flagger.app
resources:
- canaries
- canaries/status
- metrictemplates
- metrictemplates/status
- alertproviders
- alertproviders/status
verbs:
- get
- list
- watch
- create
- update
- patch
- delete
|
yaml
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
annotations:
user-authz.deckhouse.io/access-level: Editor
name: user-editor
rules:
- apiGroups:
- kuma.io
resources:
- trafficroutes
- trafficroutes/finalizers
verbs:
- get
- list
- watch
- create
- update
- patch
- delete
- apiGroups:
- flagger.app
resources:
- canaries
- canaries/status
- metrictemplates
- metrictemplates/status
- alertproviders
- alertproviders/status
verbs:
- get
- list
- watch
- create
- update
- patch
- delete
| |