Изменения документа 1. Архитектура сервиса

Редактировал(а) Ирина Сафонова 13.03.2024, 15:16

От версии 7.1
отредактировано Ирина Сафонова
на 08.02.2024, 01:30
Изменить комментарий: К данной версии нет комментариев
К версии 2.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:46
Изменить комментарий: К данной версии нет комментариев

Сводка

Подробности

Свойства страницы
Содержимое
... ... @@ -4,63 +4,62 @@
4 4  
5 5  (% data-xwiki-non-generated-content="java.util.List" %)
6 6  (((
7 -= Слои сервиса =
7 += Назначение сервиса =
8 8  
9 9  ----
10 10  
11 -== Физический слой ==
11 +1. **Физический слой.**
12 12  
13 слое организована сетевая связность базовых физических элементов (серверов).
13 данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность.
14 14  
15 -== Кластерный слой ==
15 +1. **Кластерный слой**
16 16  
17 -В слое работают службы обеспечения программно-определяемых слоев:
17 этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC).
18 18  
19 -* SDS (Software Defined Storage),
20 -* SDN (Software Defined Networking),
21 -* SDC (Software Defined Computing).
19 +Главной задачей данного слоя является обеспечение резервирования элементов инфраструктуры (до узлов). Процедура резервирования (failover) происходит автоматически без участия человека.
22 22  
23 -Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека.
21 +Этот слой формируется в виде работы кластерного ПО на каждом из узлов.
24 24  
25 -Слой формируется в виде работы кластерного ПО на каждом из узлов.
23 +1. **Слой вычислений – SDC**
26 26  
27 -=== SDS ===
25 +Слой SDC работает на базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чем у других популярных гипервизоров. Кроме того, его оптимизация до сих пор продолжается, а практически все средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условиях CPU overcommit, что критически важно для облачных решений.
28 28  
29 -Слой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]].
27 +Экземпляр SDC виртуальная машина, являющаяся совокупной сущностью со следующими элементами:
30 30  
31 -**Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов:
29 +* CPU/RAM;
30 +* Виртуальные сетевые порты (подключенные к слою SDN);
31 +* Виртуальные дисковые устройства (подключенные к слою SDS).
32 32  
33 -* CPU/RAM,
34 -* Виртуальные сетевые порты, подключенные к слою SDN.
35 -* Виртуальные дисковые устройства, подключенные к слою SDS.
33 +[[image:1707342322756-453.png]]
36 36  
37 -[[image:1707342322756-453.png||data-xwiki-image-style-border="true"]]
35 +РИСУНОК 2. SDC – SOFTWARE DEFINED COMPUTING
38 38  
39 -В каталоге для ВМ доступно три образа гостевых ОС:
40 40  
41 -* FreeBSD,
42 -* Linux (OEL/CentOS/Ubuntu/Debian и т.д.),
38 +На текущий момент для ВМ в каталоге доступны следующие образы гостевых ОС:
39 +
40 +* FreeBSD;
41 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.);
43 43  * Windows 2016, 2019, 2022.
44 44  
45 -Работоспособность решения **beecloud stack** с другими гостевыми ОС не исключается из-за небольших требований к ним. Примеры требований:
44 +Работоспособность решения vStack с другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init).
46 46  
47 -* загрузка в режиме UEFI,
48 -* наличие драйверов virtio,
49 -* наличие cloud-init.
46 +Диски виртуальной машины создаются на том же пуле, на котором была создана эта виртуальная машина.
50 50  
51 -Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться:
48 +В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться:
52 52  
53 -* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как:
54 -** CPU,
55 -** RAM,
56 -** дисковое пространство.
57 -* Явное указание пула.
50 +* «Селекторы» – автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как:
58 58  
59 -Легковесность beecloud stack — основная причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).
52 +* CPU;
53 +* RAM;
54 +* дисковое пространство.
60 60  
56 +* Явное указание пула
61 61  
62 -== SDS
58 +Легковесность beecloud stack – ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).
63 63  
60 +
61 +1. **Слой хранения – SDS**
62 +
64 64  На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера.
65 65  
66 66  Возможности слоя хранения:
... ... @@ -107,4 +107,3 @@
107 107  * максимальное количество сетей – 65536;
108 108  * 1 048 576 портов на коммутаторе одного узла;
109 109  * Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps.
110 -)))