Исходный код вики 1. Архитектура сервиса
Версия 7.1 от Ирина Сафонова на 08.02.2024, 01:30
Скрыть последних авторов
author | version | line-number | content |
---|---|---|---|
![]() |
2.1 | 1 | {{box cssClass="floatinginfobox" title="**Содержание**"}} |
2 | {{toc/}} | ||
3 | {{/box}} | ||
4 | |||
5 | (% data-xwiki-non-generated-content="java.util.List" %) | ||
6 | ((( | ||
![]() |
3.1 | 7 | = Слои сервиса = |
8 | |||
![]() |
2.1 | 9 | ---- |
10 | |||
![]() |
4.1 | 11 | == Физический слой == |
![]() |
1.1 | 12 | |
![]() |
4.1 | 13 | В слое организована сетевая связность базовых физических элементов (серверов). |
![]() |
1.1 | 14 | |
![]() |
4.1 | 15 | == Кластерный слой == |
![]() |
1.1 | 16 | |
![]() |
4.1 | 17 | В слое работают службы обеспечения программно-определяемых слоев: |
![]() |
1.1 | 18 | |
![]() |
4.1 | 19 | * SDS (Software Defined Storage), |
20 | * SDN (Software Defined Networking), | ||
21 | * SDC (Software Defined Computing). | ||
![]() |
1.1 | 22 | |
![]() |
4.1 | 23 | Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека. |
![]() |
1.1 | 24 | |
![]() |
4.1 | 25 | Слой формируется в виде работы кластерного ПО на каждом из узлов. |
![]() |
1.1 | 26 | |
![]() |
5.1 | 27 | === SDS === |
![]() |
4.1 | 28 | |
![]() |
6.1 | 29 | Слой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]]. |
![]() |
1.1 | 30 | |
![]() |
6.1 | 31 | **Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов: |
![]() |
1.1 | 32 | |
![]() |
6.1 | 33 | * CPU/RAM, |
34 | * Виртуальные сетевые порты, подключенные к слою SDN. | ||
35 | * Виртуальные дисковые устройства, подключенные к слою SDS. | ||
![]() |
1.1 | 36 | |
![]() |
6.1 | 37 | [[image:1707342322756-453.png||data-xwiki-image-style-border="true"]] |
![]() |
1.1 | 38 | |
![]() |
6.1 | 39 | В каталоге для ВМ доступно три образа гостевых ОС: |
![]() |
1.1 | 40 | |
![]() |
6.1 | 41 | * FreeBSD, |
42 | * Linux (OEL/CentOS/Ubuntu/Debian и т.д.), | ||
43 | * Windows 2016, 2019, 2022. | ||
![]() |
1.1 | 44 | |
![]() |
6.1 | 45 | Работоспособность решения **beecloud stack** с другими гостевыми ОС не исключается из-за небольших требований к ним. Примеры требований: |
![]() |
1.1 | 46 | |
![]() |
6.1 | 47 | * загрузка в режиме UEFI, |
48 | * наличие драйверов virtio, | ||
49 | * наличие cloud-init. | ||
![]() |
1.1 | 50 | |
![]() |
7.1 | 51 | Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: |
![]() |
1.1 | 52 | |
![]() |
7.1 | 53 | * Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: |
54 | ** CPU, | ||
55 | ** RAM, | ||
56 | ** дисковое пространство. | ||
57 | * Явное указание пула. | ||
![]() |
1.1 | 58 | |
![]() |
7.1 | 59 | Легковесность beecloud stack — основная причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора). |
![]() |
1.1 | 60 | |
61 | |||
![]() |
7.1 | 62 | == SDS |
![]() |
1.1 | 63 | |
64 | На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. | ||
65 | |||
66 | Возможности слоя хранения: | ||
67 | |||
68 | * компрессия и дедупликация; | ||
69 | * внутренняя целостность данных; | ||
70 | * клоны, снимки; | ||
71 | * самовосстановление данных; | ||
72 | * транзакционная целостность. | ||
73 | |||
74 | На схеме ниже изображен пятиузловой кластер. Вертикальные контейнеры — пулы, горизонтальные — узлы кластера. | ||
75 | |||
76 | В случае выхода из строя узла за счет механизма fencing (процесс исключения узла из кластера) узел, на котором возникла проблема, будет исключен из кластера, а все пулы потеряют по одному диску. При этом кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла, и пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле. | ||
77 | |||
78 | [[image:1707342322778-969.png]] | ||
79 | |||
80 | Рисунок 3. Пятиузловый кластер | ||
81 | |||
82 | |||
83 | 1. Слой сети – SDN | ||
84 | |||
85 | Beecloud stack предоставляет три варианта технологического обеспечения виртуальных сетей: | ||
86 | |||
87 | * VLAN; | ||
88 | * VxLAN; | ||
89 | * GENEVE (собственная имплементация). | ||
90 | |||
91 | При создании новой виртуальной сети на каждом из Узлов Кластера создается программно-определяемый коммутатор. | ||
92 | |||
93 | [[image:1707342322789-137.png]] | ||
94 | |||
95 | РИСУНОК 4. SDN – SOFTWARE DEFINED NETWORKING | ||
96 | |||
97 | Каждый экземпляр сети имеет следующие свойства: | ||
98 | |||
99 | * собственный MTU; | ||
100 | * поддержка Jumbo Frames; | ||
101 | * поддержка TSO/GSO; | ||
102 | * поддержка TCP MSS clamping «из коробки»; | ||
103 | * поддержка Path MTU Discovery «из коробки». | ||
104 | |||
105 | Лимиты SDN: | ||
106 | |||
107 | * максимальное количество сетей – 65536; | ||
108 | * 1 048 576 портов на коммутаторе одного узла; | ||
109 | * Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps. | ||
![]() |
3.1 | 110 | ))) |