Изменения документа 1. Архитектура сервиса
Редактировал(а) Ирина Сафонова 13.03.2024, 15:16
От версии 7.1
отредактировано Ирина Сафонова
на 08.02.2024, 01:30
на 08.02.2024, 01:30
Изменить комментарий:
К данной версии нет комментариев
К версии 1.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:45
на 08.02.2024, 00:45
Изменить комментарий:
К данной версии нет комментариев
Сводка
-
Свойства страницы (1 изменено, 0 добавлено, 0 удалено)
Подробности
- Свойства страницы
-
- Содержимое
-
... ... @@ -1,65 +1,54 @@ 1 -{{box cssClass="floatinginfobox" title="**Содержание**"}} 2 -{{toc/}} 3 -{{/box}} 1 +1. **Физический слой.** 4 4 5 -(% data-xwiki-non-generated-content="java.util.List" %) 6 -((( 7 -= Слои сервиса = 3 +В данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность. 8 8 9 - ----5 +1. **Кластерный слой** 10 10 11 - ==Физическийслой==7 +В этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC). 12 12 13 - Вслоерганизованасетеваясвязность базовыхфизическихэлементов(серверов).9 +Главной задачей данного слоя является обеспечение резервирования элементов инфраструктуры (до узлов). Процедура резервирования (failover) происходит автоматически без участия человека. 14 14 15 - ==Кластерныйслой==11 +Этот слой формируется в виде работы кластерного ПО на каждом из узлов. 16 16 17 - Вслоеработаютслужбы обеспеченияпрограммно-определяемыхслоев:13 +1. **Слой вычислений – SDC** 18 18 19 -* SDS (Software Defined Storage), 20 -* SDN (Software Defined Networking), 21 -* SDC (Software Defined Computing). 15 +Слой SDC работает на базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чем у других популярных гипервизоров. Кроме того, его оптимизация до сих пор продолжается, а практически все средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условиях CPU overcommit, что критически важно для облачных решений. 22 22 23 - Главнаязадача слоя—обеспечениерезервированияэлементовинфраструктурыдо узлов. **Резервирование элементов инфраструктуры(Failover) **— процедура резервированияпри аварийныхситуациях.Процедура проводитсякластернымфреймворком, поэтомунетребует вмешательства человека.17 +Экземпляр SDC – виртуальная машина, являющаяся совокупной сущностью со следующими элементами: 24 24 25 -Слой формируется в виде работы кластерного ПО на каждом из узлов. 19 +* CPU/RAM; 20 +* Виртуальные сетевые порты (подключенные к слою SDN); 21 +* Виртуальные дисковые устройства (подключенные к слою SDS). 26 26 27 - === SDS ===23 +[[image:1707342322756-453.png]] 28 28 29 -С лойSDCработаетнабазе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]]второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPUovercommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]].25 +РИСУНОК 2. SDC – SOFTWARE DEFINED COMPUTING 30 30 31 -**Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов: 32 32 33 -* CPU/RAM, 34 -* Виртуальные сетевые порты, подключенные к слою SDN. 35 -* Виртуальные дисковые устройства, подключенные к слою SDS. 28 +На текущий момент для ВМ в каталоге доступны следующие образы гостевых ОС: 36 36 37 -[[image:1707342322756-453.png||data-xwiki-image-style-border="true"]] 30 +* FreeBSD; 31 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.); 32 +* Windows 2016, 2019, 2022. 38 38 39 - В каталогедляВМдоступнотриобразагостевыхОС:34 +Работоспособность решения vStack с другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init). 40 40 41 -* FreeBSD, 42 -* Linux (OEL/CentOS/Ubuntu/Debian и т.д.), 43 -* Windows 2016, 2019, 2022. 36 +Диски виртуальной машины создаются на том же пуле, на котором была создана эта виртуальная машина. 44 44 45 - Работоспособность решения**beecloudstack**сдругими гостевымиОС не исключаетсяиз-занебольшихтребованийкним. Примеры требований:38 +В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 46 46 47 -* загрузка в режиме UEFI, 48 -* наличие драйверов virtio, 49 -* наличие cloud-init. 40 +* «Селекторы» – автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 50 50 51 -Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 42 +* CPU; 43 +* RAM; 44 +* дисковое пространство. 52 52 53 -* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 54 -** CPU, 55 -** RAM, 56 -** дисковое пространство. 57 -* Явное указание пула. 46 +* Явное указание пула 58 58 59 -Легковесность beecloud stack —основная причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора).48 +Легковесность beecloud stack – ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора). 60 60 61 61 62 - ==SDS51 +1. **Слой хранения – SDS** 63 63 64 64 На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. 65 65 ... ... @@ -107,4 +107,3 @@ 107 107 * максимальное количество сетей – 65536; 108 108 * 1 048 576 портов на коммутаторе одного узла; 109 109 * Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps. 110 -)))