Изменения документа 1. Архитектура сервиса
Редактировал(а) Ирина Сафонова 13.03.2024, 15:16
От версии 3.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:46
на 08.02.2024, 00:46
Изменить комментарий:
К данной версии нет комментариев
К версии 10.1
отредактировано Ирина Сафонова
на 08.02.2024, 02:01
на 08.02.2024, 02:01
Изменить комментарий:
К данной версии нет комментариев
Сводка
-
Свойства страницы (1 изменено, 0 добавлено, 0 удалено)
Подробности
- Свойства страницы
-
- Содержимое
-
... ... @@ -4,108 +4,109 @@ 4 4 5 5 (% data-xwiki-non-generated-content="java.util.List" %) 6 6 ((( 7 -= = 8 - 9 9 = Слои сервиса = 10 10 11 11 ---- 12 12 13 -1. **Физический слой.** 11 +(% class="wikigeneratedid" id="H" %) 12 +**Beecloud stack** предлагает два слоя сервиса: 14 14 15 -В данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность. 14 +* физический, 15 +* кластерный. 16 16 17 - 1.**Кластерный слой**17 += Физический слой = 18 18 19 - В этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC).19 +---- 20 20 21 - Главнойзадачей данногослоя являетсяобеспечение резервированияэлементовинфраструктуры(до узлов). Процедура резервирования (failover) происходитвтоматическибез участиячеловека.21 +В слое организована сетевая связность базовых физических элементов (серверов). 22 22 23 - Этотслой формируется в виде работы кластерногоПО на каждом из узлов.23 += Кластерный слой = 24 24 25 - 1. **Слой вычислений – SDC**25 +---- 26 26 27 - СлойSDCработаетна базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чемудругих популярныхгипервизоров. Крометого, его оптимизация досихпор продолжается, а практически все средства аппаратного ускорениявиртуальных вычисленийподдерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условияхCPU overcommit, что критически важно дляоблачных решений.27 +В слое работают службы обеспечения программно-определяемых слоев: 28 28 29 -Экземпляр SDC – виртуальная машина, являющаяся совокупной сущностью со следующими элементами: 29 +* SDS (Software Defined Storage), 30 +* SDN (Software Defined Networking), 31 +* SDC (Software Defined Computing). 30 30 31 -* CPU/RAM; 32 -* Виртуальные сетевые порты (подключенные к слою SDN); 33 -* Виртуальные дисковые устройства (подключенные к слою SDS). 33 +Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека. 34 34 35 - [[image:1707342322756-453.png]]35 +Слой формируется в виде работы кластерного ПО на каждом из узлов. 36 36 37 - РИСУНОК2.SDC –SOFTWAREDEFINED COMPUTING37 +== SDS == 38 38 39 +Слой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]]. 39 39 40 - НатекущиймоментдляВМ вкаталогедоступныследующиеобразы гостевыхОС:41 +**Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов: 41 41 42 -* FreeBSD;43 -* Linux (OEL/CentOS/Ubuntu/Debianи т.д.);44 -* Windows2016,2019,2022.43 +* CPU/RAM, 44 +* Виртуальные сетевые порты, подключенные к слою SDN. 45 +* Виртуальные дисковые устройства, подключенные к слою SDS. 45 45 46 - Работоспособность решения vStackс другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init).47 +[[image:1707342322756-453.png||data-xwiki-image-style-border="true"]] 47 47 48 - Дискивиртуальноймашины создаютсянатом же пуле,на которомбыласозданаэтавиртуальнаямашина.49 +В каталоге для ВМ доступно три образа гостевых ОС: 49 49 50 -В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 51 +* FreeBSD, 52 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.), 53 +* Windows 2016, 2019, 2022. 51 51 52 - * «Селекторы» –автоматический выборпула,накотором наименьшеесовокупное значение такихпараметров, как:55 +Работоспособность решения **beecloud stack** с другими гостевыми ОС не исключается из-за небольших требований к ним. Примеры требований: 53 53 54 -* CPU;55 -* RAM;56 -* дисковоепространство.57 +* загрузка в режиме UEFI, 58 +* наличие драйверов virtio, 59 +* наличие cloud-init. 57 57 58 - *Явное указание пула61 +Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 59 59 60 -Легковесность beecloud stack – ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора). 63 +* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 64 +** [[CPU>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU]], 65 +** [[RAM>>https://wiki.dfcloud.ru/bin/view/Glossary/RAM]], 66 +** дисковое пространство. 67 +* Явное указание пула. 61 61 69 +Легковесность beecloud stack — основная причина низкого значения Overhead. Снижение производительности ВМ относительно физического сервера вследствие значимости накладных расходов [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]]. 62 62 63 - 1.**Слой хранения –SDS**71 +== SDS == 64 64 65 -На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологическ ойосновойSDSявляетсяZFS–файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS–пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера.73 +На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологическая основа SDS — ZFS. **ZFS** — файловая система, объединенная с менеджером логических томов. Единица грануляции слоя SDS — пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. 66 66 67 67 Возможности слоя хранения: 68 68 69 -* компрессия и дедупликация ;70 -* внутренняя целостность данных ;71 -* клоны ,снимки;72 -* самовосстановление данных ;77 +* компрессия и дедупликация, 78 +* внутренняя целостность данных, 79 +* клоны и снимки, 80 +* самовосстановление данных, 73 73 * транзакционная целостность. 74 74 75 -На схеме ниже изображенпятиузловой кластер. Вертикальные контейнеры — пулы, горизонтальные — узлы кластера.83 +На схеме ниже кластер с пятью узлами. Вертикальные контейнеры — пулы, горизонтальные контейнеры — узлы кластера. При выходе из строя узла за счет механизма fencing узел, на котором возникла проблема, исключается из кластера. Механизм fencing означает процесс исключения узла из кластера. Кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла. Пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле. 76 76 77 - В случае выхода из строя узла за счет механизма fencing(процесс исключения узла из кластера) узел, на котором возникла проблема, будет исключен из кластера, а все пулы потеряют по одному диску. При этом кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла, и пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле.85 +[[image:1707342322778-969.png||height="872" width="1057"]] 78 78 79 - [[image:1707342322778-969.png]]87 +== SDN == 80 80 81 - Рисунок3.Пятиузловыйкластер89 +Программно-определяемая сеть (software-defined networking, SDN; также программно-конфигурируемая сеть) — сеть передачи данных, в которой уровень управления сетью отделён от устройств передачи данных и реализуется программно, одна из форм виртуализации сети. Beecloud stack предоставляет три варианта технологического обеспечения виртуальных сетей: 82 82 91 +* [[VLAN>>https://wiki.dfcloud.ru/bin/view/Glossary/VLAN]], 92 +* [[VxLAN>>https://wiki.dfcloud.ru/bin/view/Glossary/VXLAN]], 93 +* [[GENEVE>>https://wiki.dfcloud.ru/bin/view/Glossary/GENEVE]] (собственная имплементация). 83 83 84 - 1.Слой сети–SDN95 +При создании новой виртуальной сети на каждом из узлов кластера создается программно-определяемый [[коммутатор>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%BA%D0%BE%D0%BC%D0%BC%D1%83%D1%82%D0%B0%D1%82%D0%BE%D1%80]]. 85 85 86 - Beecloudstack предоставляет три варианта технологического обеспечения виртуальных сетей:97 +[[image:1707342322789-137.png||data-xwiki-image-style-border="true"]] 87 87 88 -* VLAN; 89 -* VxLAN; 90 -* GENEVE (собственная имплементация). 99 +Свойства экземпляра сети: 91 91 92 -При создании новой виртуальной сети на каждом из Узлов Кластера создается программно-определяемый коммутатор. 93 - 94 -[[image:1707342322789-137.png]] 95 - 96 -РИСУНОК 4. SDN – SOFTWARE DEFINED NETWORKING 97 - 98 -Каждый экземпляр сети имеет следующие свойства: 99 - 100 -* собственный MTU; 101 -* поддержка Jumbo Frames; 102 -* поддержка TSO/GSO; 103 -* поддержка TCP MSS clamping «из коробки»; 101 +* собственный [[MTU>>https://wiki.dfcloud.ru/bin/view/Glossary/MTU]], 102 +* поддержка Jumbo Frames, 103 +* поддержка TSO/GSO, 104 +* поддержка TCP MSS clamping «из коробки», 104 104 * поддержка Path MTU Discovery «из коробки». 105 105 106 106 Лимиты SDN: 107 107 108 -* максимальное количество сетей–65536;109 -* 1 048 576 портов на коммутаторе одного узла ;110 -* Производительность виртуального порта ВМ: 22 GBps/ 2.5Mpps.109 +* Максимальное количество сетей — 65536. 110 +* 1 048 576 портов на коммутаторе одного узла. 111 +* Производительность виртуального порта ВМ: 22 Гбит/с / 2.5 Mpps. 111 111 )))