Изменения документа 1. Описание сервиса
Редактировал(а) Ирина Сафонова 03.01.2024, 22:20
От версии 8.1
отредактировано Ирина Сафонова
на 22.03.2023, 19:17
на 22.03.2023, 19:17
Изменить комментарий:
К данной версии нет комментариев
К версии 9.1
отредактировано Ирина Сафонова
на 23.03.2023, 00:24
на 23.03.2023, 00:24
Изменить комментарий:
К данной версии нет комментариев
Сводка
-
Свойства страницы (1 изменено, 0 добавлено, 0 удалено)
Подробности
- Свойства страницы
-
- Содержимое
-
... ... @@ -5,7 +5,16 @@ 5 5 6 6 ---- 7 7 8 -Сервис предоставляется по модели PaaS. Реализован на базе единой платформы DF Cloud PaaS Исполнителя. Платформа DF Cloud PaaS имеет встроенные средства автоматизации процессов инсталляции, настройки, обновления Kubernetes кластеров. 8 +=== Краткое описание === 9 +Сервис предоставляется по модели PaaS. Реализован на базе единой платформы DF Cloud PaaS Исполнителя. Платформа DF Cloud PaaS имеет встроенные средства автоматизации процессов инсталляции, настройки, обновления Kubernetes кластеров. 10 +Кластер Kubernetes реализован на базе виртуальной инфраструктуры, развернутой на физических серверах под управлением VMware ESXi. В качестве хостовых ОС на виртуальных машинах используются Unix-подобные операционные системы (Debian). 11 + 12 +=== Концепт кластера Kubernetes === 13 + 14 +Кластер Kubernetes в рамках PaaS платформы предполагается георазнесенным на два дата-центра. В рамках начальных условий (на момент запуска) в кластер входит четыре мастер ноды, четыре воркер ноды, два api сервера (переадресация запросов на кластер Kubernetes) и две ноды со службами NFS (подключаются к кластеру, используются для хранения контейнерных volum-ов в рамках Persistent Volume в окружениях Клиента). 15 + 16 +=== Инсталляция Kubernetes === 17 + 9 9 В процессе инсталляции Kubernetes кластеров производится автоматическая настройка следующих компонентов: 10 10 11 11 * //Weave CNI// - плагин для организации внутренней сетевой связности, ... ... @@ -16,27 +16,27 @@ 16 16 * //Kubectl //– командный интерфейс для эффективного управления кластером, 17 17 * //Metrics server, Prometheus и Grafana// – системы мониторинга ресурсов и состояния кластера и конечных приложений (опционально). 18 18 19 - Заказчикудоступны следующие варианты топологий кластера:28 +=== Варианты топологий кластера === 20 20 21 21 * //Development //– одна мастер нода и одна worker нода (с возможностью увеличения количества нод), 22 22 * //Production – //три мастер ноды с двумя API балансировщиками (можно увеличить в дальнейшем) и две worker ноды (с возможностью увеличения количества нод). 23 23 24 -Доступ к Kubernetes кластеру с использованием [[RBAC>>url:https://kubernetes.io/docs/reference/access-authn-authz/rbac/]] (Role-Based Access Control). По умолчанию учетная запись администратора будетиметьтокен, который принадлежит ServiceAccount с ролью Cluster-admin.33 +Доступ к Kubernetes кластеру с использованием [[RBAC>>url:https://kubernetes.io/docs/reference/access-authn-authz/rbac/]] (Role-Based Access Control). По умолчанию учетная запись администратора имеет токен, который принадлежит ServiceAccount с ролью Cluster-admin. 25 25 26 - Врамках платформы доступно вертикальное и горизонтальное масштабирование кластера Kubernetes.35 +=== Вертикальное и горизонтальное масштабирование кластера Kubernete === 27 27 37 +В рамках платформы доступно вертикальное и горизонтальное масштабирование кластера Kubernetes. 28 28 Вертикальное масштабирование может выполняться с помощью двух методов: 29 - 30 30 * автоматическое вертикальное масштабирование с помощью встроенных средств платформы DF Cloud PaaS, 31 31 * с использованием Kubernetes Vertical Pod Autoscaler. 32 32 33 33 Горизонтальное масштабирование также доступно в двух вариантах: 34 - 35 35 * автоматическое горизонтальное масштабирование с помощью встроенных средств платформы DF Cloud PaaS – добавление и удаление Kubernetes нод по тригерам, настроенных в системе мониторинга или в ручную через панель управления платформой, 36 36 * с использованием Kubernetes Horizontal Pod Autoscaler – масштабирование происходит на основе мониторинга утилизации CPU внутренними средствами кластера. 37 37 38 - Дляцелейразвертывания микросервисных приложений внутри Kubernetesкластера заказчику доступны следующие методы:46 +=== Методы развертывания микросервисных приложений внутри Kubernetes = 39 39 48 +Для целей развертывания микросервисных приложений внутри Kubernetes кластера заказчику доступны следующие методы: 40 40 * с помощью Helm, который предустановлен на всех master нодах, 41 41 * с помощью .yaml или .yml файлов, 42 42 * непосредственно через Kubernetes Dashboard,