Изменения документа 1. Архитектура сервиса

Редактировал(а) Ирина Сафонова 13.03.2024, 15:16

От версии 1.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:45
Изменить комментарий: К данной версии нет комментариев
К версии 7.1
отредактировано Ирина Сафонова
на 08.02.2024, 01:30
Изменить комментарий: К данной версии нет комментариев

Сводка

Подробности

Свойства страницы
Содержимое
... ... @@ -1,54 +1,65 @@
1 -1. **Физический слой.**
1 +{{box cssClass="floatinginfobox" title="**Содержание**"}}
2 +{{toc/}}
3 +{{/box}}
2 2  
3 -В данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность.
5 +(% data-xwiki-non-generated-content="java.util.List" %)
6 +(((
7 += Слои сервиса =
4 4  
5 -1. **Кластерный слой**
9 +----
6 6  
7 -В этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC).
11 +== Физический слой ==
8 8  
9 -Главной задачей данного слоя является обеспечение резервирования элементов инфраструктуры (до узлов). Процедура резервирования (failover) происходит автоматически без участия человека.
13 +В слое организована сетевая связность базовых физических элементов ерверов).
10 10  
11 -Этот слой формируется в виде работы кластерного ПО на каждом из узлов.
15 +== Кластерный слой ==
12 12  
13 -1. **Слой вычислений SDC**
17 +В слое работают службы обеспечения программно-определяемых слоев:
14 14  
15 -Слой SDC работает на базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чем у других популярных гипервизоров. Кроме того, его оптимизация до сих пор продолжается, а практически все средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условиях CPU overcommit, что критически важно для облачных решений.
19 +* SDS (Software Defined Storage),
20 +* SDN (Software Defined Networking),
21 +* SDC (Software Defined Computing).
16 16  
17 -Экземпляр SDC виртуальная машина, являющаяся совокупной сущностью со следующими элементами:
23 +Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека.
18 18  
19 -* CPU/RAM;
20 -* Виртуальные сетевые порты (подключенные к слою SDN);
21 -* Виртуальные дисковые устройства (подключенные к слою SDS).
25 +Слой формируется в виде работы кластерного ПО на каждом из узлов.
22 22  
23 -[[image:1707342322756-453.png]]
27 +=== SDS ===
24 24  
25 -РИСУНОК 2. SDC SOFTWARE DEFINED COMPUTING
29 лой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]].
26 26  
31 +**Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов:
27 27  
28 -На текущий момент для ВМ в каталоге доступны следующие образы гостевых ОС:
33 +* CPU/RAM,
34 +* Виртуальные сетевые порты, подключенные к слою SDN.
35 +* Виртуальные дисковые устройства, подключенные к слою SDS.
29 29  
30 -* FreeBSD;
31 -* Linux (OEL/CentOS/Ubuntu/Debian и т.д.);
32 -* Windows 2016, 2019, 2022.
37 +[[image:1707342322756-453.png||data-xwiki-image-style-border="true"]]
33 33  
34 -Работоспособность решения vStack с другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init).
39 +В каталоге для ВМ доступно три образа гостевых ОС:
35 35  
36 -Диски виртуальной машины создаются на том же пуле, на котором была создана эта виртуальная машина.
41 +* FreeBSD,
42 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.),
43 +* Windows 2016, 2019, 2022.
37 37  
38 -В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться:
45 +Работоспособность решения **beecloud stack** с другими гостевыми ОС не исключается из-за небольших требований к ним. Примеры требований:
39 39  
40 -* «Селекторы» – автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как:
47 +* загрузка в режиме UEFI,
48 +* наличие драйверов virtio,
49 +* наличие cloud-init.
41 41  
42 -* CPU;
43 -* RAM;
44 -* дисковое пространство.
51 +Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться:
45 45  
46 -* Явное указание пула
53 +* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как:
54 +** CPU,
55 +** RAM,
56 +** дисковое пространство.
57 +* Явное указание пула.
47 47  
48 -Легковесность beecloud stack ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).
59 +Легковесность beecloud stack основная причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).
49 49  
50 50  
51 -1. **Слой хранения – SDS**
62 +== SDS
52 52  
53 53  На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера.
54 54  
... ... @@ -96,3 +96,4 @@
96 96  * максимальное количество сетей – 65536;
97 97  * 1 048 576 портов на коммутаторе одного узла;
98 98  * Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps.
110 +)))