Изменения документа 1. Архитектура сервиса

Редактировал(а) Ирина Сафонова 13.03.2024, 15:16

От версии 7.1
отредактировано Ирина Сафонова
на 08.02.2024, 01:30
Изменить комментарий: К данной версии нет комментариев
К версии 1.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:45
Изменить комментарий: К данной версии нет комментариев

Сводка

Подробности

Свойства страницы
Содержимое
... ... @@ -1,65 +1,54 @@
1 -{{box cssClass="floatinginfobox" title="**Содержание**"}}
2 -{{toc/}}
3 -{{/box}}
1 +1. **Физический слой.**
4 4  
5 -(% data-xwiki-non-generated-content="java.util.List" %)
6 -(((
7 -= Слои сервиса =
3 +В данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность.
8 8  
9 -----
5 +1. **Кластерный слой**
10 10  
11 -== Физический слой ==
7 +В этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC).
12 12  
13 -В слое организована сетевая связность базовых физических элементов (серверов).
9 +Главной задачей данного слоя является обеспечение резервирования элементов инфраструктуры (до узлов). Процедура резервирования (failover) происходит автоматически без участия человека.
14 14  
15 -== Кластерный слой ==
11 +Этот слой формируется в виде работы кластерного ПО на каждом из узлов.
16 16  
17 -В слое работают службы обеспечения программно-определяемых слоев:
13 +1. **Слой вычислений SDC**
18 18  
19 -* SDS (Software Defined Storage),
20 -* SDN (Software Defined Networking),
21 -* SDC (Software Defined Computing).
15 +Слой SDC работает на базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чем у других популярных гипервизоров. Кроме того, его оптимизация до сих пор продолжается, а практически все средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условиях CPU overcommit, что критически важно для облачных решений.
22 22  
23 -Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека.
17 +Экземпляр SDC виртуальная машина, являющаяся совокупной сущностью со следующими элементами:
24 24  
25 -Слой формируется в виде работы кластерного ПО на каждом из узлов.
19 +* CPU/RAM;
20 +* Виртуальные сетевые порты (подключенные к слою SDN);
21 +* Виртуальные дисковые устройства (подключенные к слою SDS).
26 26  
27 -=== SDS ===
23 +[[image:1707342322756-453.png]]
28 28  
29 лой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]].
25 +РИСУНОК 2. SDC SOFTWARE DEFINED COMPUTING
30 30  
31 -**Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов:
32 32  
33 -* CPU/RAM,
34 -* Виртуальные сетевые порты, подключенные к слою SDN.
35 -* Виртуальные дисковые устройства, подключенные к слою SDS.
28 +На текущий момент для ВМ в каталоге доступны следующие образы гостевых ОС:
36 36  
37 -[[image:1707342322756-453.png||data-xwiki-image-style-border="true"]]
30 +* FreeBSD;
31 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.);
32 +* Windows 2016, 2019, 2022.
38 38  
39 -В каталоге для ВМ доступно три образа гостевых ОС:
34 +Работоспособность решения vStack с другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init).
40 40  
41 -* FreeBSD,
42 -* Linux (OEL/CentOS/Ubuntu/Debian и т.д.),
43 -* Windows 2016, 2019, 2022.
36 +Диски виртуальной машины создаются на том же пуле, на котором была создана эта виртуальная машина.
44 44  
45 -Работоспособность решения **beecloud stack** с другими гостевыми ОС не исключается из-за небольших требований к ним. Примеры требований:
38 +В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться:
46 46  
47 -* загрузка в режиме UEFI,
48 -* наличие драйверов virtio,
49 -* наличие cloud-init.
40 +* «Селекторы» – автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как:
50 50  
51 -Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться:
42 +* CPU;
43 +* RAM;
44 +* дисковое пространство.
52 52  
53 -* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как:
54 -** CPU,
55 -** RAM,
56 -** дисковое пространство.
57 -* Явное указание пула.
46 +* Явное указание пула
58 58  
59 -Легковесность beecloud stack основная причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).
48 +Легковесность beecloud stack ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).
60 60  
61 61  
62 -== SDS
51 +1. **Слой хранения – SDS**
63 63  
64 64  На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера.
65 65  
... ... @@ -107,4 +107,3 @@
107 107  * максимальное количество сетей – 65536;
108 108  * 1 048 576 портов на коммутаторе одного узла;
109 109  * Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps.
110 -)))