Изменения документа 1. Описание сервиса

Редактировал(а) Ирина Сафонова 03.01.2024, 22:20

От версии 7.1
отредактировано Ирина Сафонова
на 22.03.2023, 19:15
Изменить комментарий: К данной версии нет комментариев
К версии 10.1
отредактировано Ирина Сафонова
на 23.03.2023, 00:25
Изменить комментарий: К данной версии нет комментариев

Сводка

Подробности

Свойства страницы
Содержимое
... ... @@ -1,3 +1,8 @@
1 +(% style="color:#4169E1" %)
2 +**Содержание**
3 +
4 +{{toc/}}
5 +
1 1  Услуга доступна в варианте Cloud Managed Kubernetes.
2 2  
3 3  (% style="color:#4169E1" %)
... ... @@ -5,4 +5,52 @@
5 5  
6 6  ----
7 7  
8 -Сервис предоставляется по модели PaaS. Реализован на базе единой платформы Исполнителя. Включает в себя:
13 +=== Краткое описание ===
14 +
15 +Сервис предоставляется по модели PaaS. Реализован на базе единой платформы DF Cloud PaaS Исполнителя. Платформа DF Cloud PaaS имеет встроенные средства автоматизации процессов инсталляции, настройки, обновления Kubernetes кластеров.
16 +Кластер Kubernetes реализован на базе виртуальной инфраструктуры, развернутой на физических серверах под управлением VMware ESXi. В качестве хостовых ОС на виртуальных машинах используются Unix-подобные операционные системы (Debian).
17 +
18 +=== Концепт кластера Kubernetes ===
19 +
20 +Кластер Kubernetes в рамках PaaS платформы предполагается георазнесенным на два дата-центра. В рамках начальных условий (на момент запуска) в кластер входит четыре мастер ноды, четыре воркер ноды, два api сервера (переадресация запросов на кластер Kubernetes) и две ноды со службами NFS (подключаются к кластеру, используются для хранения контейнерных volum-ов в рамках Persistent Volume в окружениях Клиента).
21 +
22 +=== Инсталляция Kubernetes ===
23 +
24 +В процессе инсталляции Kubernetes кластеров производится автоматическая настройка следующих компонентов:
25 +
26 +* //Weave CNI// - плагин для организации внутренней сетевой связности,
27 +* //CoreDNS //– внутренний DNS,
28 +* //Traefik// - ingress контроллер с преднастроенным TLS для внешнего доступа к сервисам,
29 +* //Kubernetes Dashboard// – web портал управления кластером,
30 +* //Helm и Tiller// – автоматизация инсталляции приложений,
31 +* //Kubectl //– командный интерфейс для эффективного управления кластером,
32 +* //Metrics server, Prometheus и Grafana// – системы мониторинга ресурсов и состояния кластера и конечных приложений (опционально).
33 +
34 +=== Варианты топологий кластера ===
35 +
36 +* //Development //– одна мастер нода и одна worker нода (с возможностью увеличения количества нод),
37 +* //Production – //три мастер ноды с двумя API балансировщиками (можно увеличить в дальнейшем) и две worker ноды (с возможностью увеличения количества нод).
38 +
39 +Доступ к Kubernetes кластеру с использованием [[RBAC>>url:https://kubernetes.io/docs/reference/access-authn-authz/rbac/]] (Role-Based Access Control). По умолчанию учетная запись администратора имеет токен, который принадлежит ServiceAccount с ролью Cluster-admin.
40 +
41 +=== Вертикальное и горизонтальное масштабирование кластера Kubernete ===
42 +
43 +В рамках платформы доступно вертикальное и горизонтальное масштабирование кластера Kubernetes.
44 +Вертикальное масштабирование может выполняться с помощью двух методов:
45 +
46 +* автоматическое вертикальное масштабирование с помощью встроенных средств платформы DF Cloud PaaS,
47 +* с использованием Kubernetes Vertical Pod Autoscaler.
48 +
49 +Горизонтальное масштабирование также доступно в двух вариантах:
50 +
51 +* автоматическое горизонтальное масштабирование с помощью встроенных средств платформы DF Cloud PaaS – добавление и удаление Kubernetes нод по тригерам, настроенных в системе мониторинга или в ручную через панель управления платформой,
52 +* с использованием Kubernetes Horizontal Pod Autoscaler – масштабирование происходит на основе мониторинга утилизации CPU внутренними средствами кластера.
53 +
54 +=== Методы развертывания микросервисных приложений внутри Kubernetes ===
55 +
56 +Для целей развертывания микросервисных приложений внутри Kubernetes кластера заказчику доступны следующие методы:
57 +
58 +* с помощью Helm, который предустановлен на всех master нодах,
59 +* с помощью .yaml или .yml файлов,
60 +* непосредственно через Kubernetes Dashboard,
61 +* через командную строку kubectl.