Изменения документа 1. Архитектура сервиса
Редактировал(а) Ирина Сафонова 13.03.2024, 15:16
От версии 10.1
отредактировано Ирина Сафонова
на 08.02.2024, 02:01
на 08.02.2024, 02:01
Изменить комментарий:
К данной версии нет комментариев
К версии 1.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:45
на 08.02.2024, 00:45
Изменить комментарий:
К данной версии нет комментариев
Сводка
-
Свойства страницы (1 изменено, 0 добавлено, 0 удалено)
Подробности
- Свойства страницы
-
- Содержимое
-
... ... @@ -1,112 +1,98 @@ 1 -{{box cssClass="floatinginfobox" title="**Содержание**"}} 2 -{{toc/}} 3 -{{/box}} 1 +1. **Физический слой.** 4 4 5 -(% data-xwiki-non-generated-content="java.util.List" %) 6 -((( 7 -= Слои сервиса = 3 +В данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность. 8 8 9 - ----5 +1. **Кластерный слой** 10 10 11 -(% class="wikigeneratedid" id="H" %) 12 -**Beecloud stack** предлагает два слоя сервиса: 7 +В этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC). 13 13 14 -* физический, 15 -* кластерный. 9 +Главной задачей данного слоя является обеспечение резервирования элементов инфраструктуры (до узлов). Процедура резервирования (failover) происходит автоматически без участия человека. 16 16 17 - =Физическийслой =11 +Этот слой формируется в виде работы кластерного ПО на каждом из узлов. 18 18 19 - ----13 +1. **Слой вычислений – SDC** 20 20 21 - В слое организованасетеваясвязностьбазовыхфизическихэлементов(серверов).15 +Слой SDC работает на базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чем у других популярных гипервизоров. Кроме того, его оптимизация до сих пор продолжается, а практически все средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условиях CPU overcommit, что критически важно для облачных решений. 22 22 23 - =Кластерный слой=17 +Экземпляр SDC – виртуальная машина, являющаяся совокупной сущностью со следующими элементами: 24 24 25 ----- 19 +* CPU/RAM; 20 +* Виртуальные сетевые порты (подключенные к слою SDN); 21 +* Виртуальные дисковые устройства (подключенные к слою SDS). 26 26 27 - В слое работают службы обеспечения программно-определяемых слоев:23 +[[image:1707342322756-453.png]] 28 28 29 -* SDS (Software Defined Storage), 30 -* SDN (Software Defined Networking), 31 -* SDC (Software Defined Computing). 25 +РИСУНОК 2. SDC – SOFTWARE DEFINED COMPUTING 32 32 33 -Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека. 34 34 35 - СлойформируетсяввидеработыкластерногоПО на каждомизузлов.28 +На текущий момент для ВМ в каталоге доступны следующие образы гостевых ОС: 36 36 37 -== SDS == 30 +* FreeBSD; 31 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.); 32 +* Windows 2016, 2019, 2022. 38 38 39 - Слой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительностьbhyve выше,чемудругихпопулярныхгипервизоров.Оптимизация bhyveдосих пор продолжается.Средствааппаратногоускорениявиртуальных вычисленийподдерживаютсянасовременныхпроцессорахIntel.Гипервизорbhyve поддерживаетработувусловиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]].34 +Работоспособность решения vStack с другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init). 40 40 41 - **ЭкземплярSDC** — [[виртуальнаямашина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]](ВМ), являющаясясовокупнойсущностью трехэлементов:36 +Диски виртуальной машины создаются на том же пуле, на котором была создана эта виртуальная машина. 42 42 43 -* CPU/RAM, 44 -* Виртуальные сетевые порты, подключенные к слою SDN. 45 -* Виртуальные дисковые устройства, подключенные к слою SDS. 38 +В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 46 46 47 - [[image:1707342322756-453.png||data-xwiki-image-style-border="true"]]40 +* «Селекторы» – автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 48 48 49 -В каталоге для ВМ доступно три образа гостевых ОС: 42 +* CPU; 43 +* RAM; 44 +* дисковое пространство. 50 50 51 -* FreeBSD, 52 -* Linux (OEL/CentOS/Ubuntu/Debian и т.д.), 53 -* Windows 2016, 2019, 2022. 46 +* Явное указание пула 54 54 55 - Работоспособностьрешения **beecloud stack**сдругими гостевымиОСнесключаетсяиз-за небольшихтребованийкним.Примерытребований:48 +Легковесность beecloud stack – ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора). 56 56 57 -* загрузка в режиме UEFI, 58 -* наличие драйверов virtio, 59 -* наличие cloud-init. 60 60 61 - ДискиВМ создаются на том же пуле, на которомбыласоздана эта ВМ. В процессе созданияВМсуществуют следующие возможности выбора пула, ресурсы которого будут использоваться:51 +1. **Слой хранения – SDS** 62 62 63 -* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 64 -** [[CPU>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU]], 65 -** [[RAM>>https://wiki.dfcloud.ru/bin/view/Glossary/RAM]], 66 -** дисковое пространство. 67 -* Явное указание пула. 53 +На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. 68 68 69 - Легковесность beecloud stack — основная причина низкого значения Overhead. Снижение производительностиВМ относительнофизического серверавследствие значимости накладных расходов [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]].55 +Возможности слоя хранения: 70 70 71 -== SDS == 57 +* компрессия и дедупликация; 58 +* внутренняя целостность данных; 59 +* клоны, снимки; 60 +* самовосстановление данных; 61 +* транзакционная целостность. 72 72 73 -На основе ресурсныхпримитивовизкластерногослоя формируется слой хранения(SDS). Технологическаяоснова SDS — ZFS. **ZFS** — файловая система, объединенная с менеджеромлогических томов. Единица грануляции слоя SDS— пул,собранныйиздисков каждого узла c избыточностью равной избыточности кластера(N+2). В момент времени пул работает на конкретном узлекластера.63 +На схеме ниже изображен пятиузловой кластер. Вертикальные контейнеры — пулы, горизонтальные — узлы кластера. 74 74 75 -Воз можности слояхранения:65 +В случае выхода из строя узла за счет механизма fencing (процесс исключения узла из кластера) узел, на котором возникла проблема, будет исключен из кластера, а все пулы потеряют по одному диску. При этом кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла, и пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле. 76 76 77 -* компрессия и дедупликация, 78 -* внутренняя целостность данных, 79 -* клоны и снимки, 80 -* самовосстановление данных, 81 -* транзакционная целостность. 67 +[[image:1707342322778-969.png]] 82 82 83 - На схеме ниже кластер с пятьюузлами. Вертикальные контейнеры — пулы, горизонтальныеконтейнеры— узлы кластера. При выходе из строяузла за счетмеханизма fencingузел, на которомвозникла проблема, исключается из кластера. Механизм fencing означает процесс исключения узла из кластера. Кластер автоматически выполнит процедуру аварийногопереключения (failover) ресурсов данного узла. Пул, работавший на узле, вышедшем изстроя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле.69 +Рисунок 3. Пятиузловый кластер 84 84 85 -[[image:1707342322778-969.png||height="872" width="1057"]] 86 86 87 - ==SDN==72 +1. Слой сети – SDN 88 88 89 - Программно-определяемая сеть (software-defined networking, SDN; также программно-конфигурируемая сеть) — сеть передачи данных, в которой уровень управления сетью отделён от устройств передачи данных и реализуется программно, одна из форм виртуализации сети.Beecloud stack предоставляет три варианта технологического обеспечения виртуальных сетей:74 +Beecloud stack предоставляет три варианта технологического обеспечения виртуальных сетей: 90 90 91 -* [[VLAN>>https://wiki.dfcloud.ru/bin/view/Glossary/VLAN]],92 -* [[VxLAN>>https://wiki.dfcloud.ru/bin/view/Glossary/VXLAN]],93 -* [[GENEVE>>https://wiki.dfcloud.ru/bin/view/Glossary/GENEVE]](собственная имплементация).76 +* VLAN; 77 +* VxLAN; 78 +* GENEVE (собственная имплементация). 94 94 95 -При создании новой виртуальной сети на каждом из узловкластера создается программно-определяемый[[коммутатор>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%BA%D0%BE%D0%BC%D0%BC%D1%83%D1%82%D0%B0%D1%82%D0%BE%D1%80]].80 +При создании новой виртуальной сети на каждом из Узлов Кластера создается программно-определяемый коммутатор. 96 96 97 -[[image:1707342322789-137.png ||data-xwiki-image-style-border="true"]]82 +[[image:1707342322789-137.png]] 98 98 99 -С войстваэкземплярасети:84 +РИСУНОК 4. SDN – SOFTWARE DEFINED NETWORKING 100 100 101 -* собственный [[MTU>>https://wiki.dfcloud.ru/bin/view/Glossary/MTU]], 102 -* поддержка Jumbo Frames, 103 -* поддержка TSO/GSO, 104 -* поддержка TCP MSS clamping «из коробки», 86 +Каждый экземпляр сети имеет следующие свойства: 87 + 88 +* собственный MTU; 89 +* поддержка Jumbo Frames; 90 +* поддержка TSO/GSO; 91 +* поддержка TCP MSS clamping «из коробки»; 105 105 * поддержка Path MTU Discovery «из коробки». 106 106 107 107 Лимиты SDN: 108 108 109 -* Максимальное количество сетей — 65536. 110 -* 1 048 576 портов на коммутаторе одного узла. 111 -* Производительность виртуального порта ВМ: 22 Гбит/с / 2.5 Mpps. 112 -))) 96 +* максимальное количество сетей – 65536; 97 +* 1 048 576 портов на коммутаторе одного узла; 98 +* Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps.