Изменения документа 1. Архитектура сервиса
Редактировал(а) Ирина Сафонова 13.03.2024, 15:16
От версии 9.1
отредактировано Ирина Сафонова
на 08.02.2024, 02:00
на 08.02.2024, 02:00
Изменить комментарий:
К данной версии нет комментариев
К версии 1.1
отредактировано Ирина Сафонова
на 08.02.2024, 00:45
на 08.02.2024, 00:45
Изменить комментарий:
К данной версии нет комментариев
Сводка
-
Свойства страницы (1 изменено, 0 добавлено, 0 удалено)
Подробности
- Свойства страницы
-
- Содержимое
-
... ... @@ -1,108 +1,98 @@ 1 -{{box cssClass="floatinginfobox" title="**Содержание**"}} 2 -{{toc/}} 3 -{{/box}} 1 +1. **Физический слой.** 4 4 5 -(% data-xwiki-non-generated-content="java.util.List" %) 6 -((( 7 -= Слои сервиса = 3 +В данном слое находятся базовые физические элементы (серверы) и организована их сетевая связность. 8 8 9 - ----5 +1. **Кластерный слой** 10 10 11 - ====7 +В этом слое работают службы обеспечения программно-определяемых слоев (SDS, SDN, SDC). 12 12 13 - =Физическийслой =9 +Главной задачей данного слоя является обеспечение резервирования элементов инфраструктуры (до узлов). Процедура резервирования (failover) происходит автоматически без участия человека. 14 14 15 - ----11 +Этот слой формируется в виде работы кластерного ПО на каждом из узлов. 16 16 17 - Вслое организованасетевая связность базовых физических элементов(серверов).13 +1. **Слой вычислений – SDC** 18 18 19 - =Кластерный слой=15 +Слой SDC работает на базе гипервизора второго типа (bhyve). Производительность bhyve значительно выше, чем у других популярных гипервизоров. Кроме того, его оптимизация до сих пор продолжается, а практически все средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Также гипервизор bhyve поддерживает работу в условиях CPU overcommit, что критически важно для облачных решений. 20 20 21 - ----17 +Экземпляр SDC – виртуальная машина, являющаяся совокупной сущностью со следующими элементами: 22 22 23 -В слое работают службы обеспечения программно-определяемых слоев: 19 +* CPU/RAM; 20 +* Виртуальные сетевые порты (подключенные к слою SDN); 21 +* Виртуальные дисковые устройства (подключенные к слою SDS). 24 24 25 -* SDS (Software Defined Storage), 26 -* SDN (Software Defined Networking), 27 -* SDC (Software Defined Computing). 23 +[[image:1707342322756-453.png]] 28 28 29 - Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементовинфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях.Процедурапроводитсякластернымфреймворком,поэтому не требует вмешательства человека.25 +РИСУНОК 2. SDC – SOFTWARE DEFINED COMPUTING 30 30 31 -Слой формируется в виде работы кластерного ПО на каждом из узлов. 32 32 33 - ==SDS==28 +На текущий момент для ВМ в каталоге доступны следующие образы гостевых ОС: 34 34 35 -Слой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]]. 30 +* FreeBSD; 31 +* Linux (OEL/CentOS/Ubuntu/Debian и т.д.); 32 +* Windows 2016, 2019, 2022. 36 36 37 - **Экземпляр SDC** —[[виртуальнаямашина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]](ВМ),являющаясясовокупнойсущностьютрехэлементов:34 +Работоспособность решения vStack с другими гостевыми ОС не исключается из-за небольших требований к ним (возможность загрузки в режиме UEFI, наличие драйверов virtio и наличие cloud-init). 38 38 39 -* CPU/RAM, 40 -* Виртуальные сетевые порты, подключенные к слою SDN. 41 -* Виртуальные дисковые устройства, подключенные к слою SDS. 36 +Диски виртуальной машины создаются на том же пуле, на котором была создана эта виртуальная машина. 42 42 43 - [[image:1707342322756-453.png||data-xwiki-image-style-border="true"]]38 +В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 44 44 45 - ВкаталогедляВМдоступно триобраза гостевыхОС:40 +* «Селекторы» – автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 46 46 47 -* FreeBSD,48 -* Linux (OEL/CentOS/Ubuntu/Debian и т.д.),49 -* Windows2016, 2019, 2022.42 +* CPU; 43 +* RAM; 44 +* дисковое пространство. 50 50 51 - Работоспособность решения**beecloudstack** с другими гостевыми ОСнеисключается из-заебольших требованийк ним. Примеры требований:46 +* Явное указание пула 52 52 53 -* загрузка в режиме UEFI, 54 -* наличие драйверов virtio, 55 -* наличие cloud-init. 48 +Легковесность beecloud stack – ключевая причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора). 56 56 57 -Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: 58 58 59 -* Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: 60 -** [[CPU>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU]], 61 -** [[RAM>>https://wiki.dfcloud.ru/bin/view/Glossary/RAM]], 62 -** дисковое пространство. 63 -* Явное указание пула. 51 +1. **Слой хранения – SDS** 64 64 65 - Легковесностьbeecloud stack — основнаяпричинанизкогозначенияOverhead.СнижениепроизводительностиВМотносительнофизическогосерверавследствиезначимостинакладных расходов[[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]].53 +На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. 66 66 67 -== SDS == 68 - 69 -На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологическая основа SDS — ZFS. **ZFS** — файловая система, объединенная с менеджером логических томов. Единица грануляции слоя SDS — пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. 70 - 71 71 Возможности слоя хранения: 72 72 73 -* компрессия и дедупликация ,74 -* внутренняя целостность данных ,75 -* клоны иснимки,76 -* самовосстановление данных ,57 +* компрессия и дедупликация; 58 +* внутренняя целостность данных; 59 +* клоны, снимки; 60 +* самовосстановление данных; 77 77 * транзакционная целостность. 78 78 79 -На схеме ниже кластерспятьюузлами. Вертикальные контейнеры — пулы, горизонтальныеконтейнеры— узлы кластера.При выходе из строя узла за счет механизма fencing узел, на котором возникла проблема, исключается из кластера. Механизм fencing означает процесс исключения узла из кластера. Кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла. Пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле.63 +На схеме ниже изображен пятиузловой кластер. Вертикальные контейнеры — пулы, горизонтальные — узлы кластера. 80 80 81 - [[image:1707342322778-969.png||height="872"width="1057"]]65 +В случае выхода из строя узла за счет механизма fencing (процесс исключения узла из кластера) узел, на котором возникла проблема, будет исключен из кластера, а все пулы потеряют по одному диску. При этом кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла, и пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле. 82 82 83 - == SDN ==67 +[[image:1707342322778-969.png]] 84 84 85 - Программно-определяемаясеть (software-defined networking, SDN; также программно-конфигурируемаясеть)— сеть передачи данных, в которой уровень управлениясетью отделён от устройств передачиданных и реализуется программно, одна изформ виртуализации сети. Beecloud stack предоставляеттри варианта технологического обеспечения виртуальныхсетей:69 +Рисунок 3. Пятиузловый кластер 86 86 87 -* [[VLAN>>https://wiki.dfcloud.ru/bin/view/Glossary/VLAN]], 88 -* [[VxLAN>>https://wiki.dfcloud.ru/bin/view/Glossary/VXLAN]], 89 -* [[GENEVE>>https://wiki.dfcloud.ru/bin/view/Glossary/GENEVE]] (собственная имплементация). 90 90 91 - Присоздании новой виртуальной сетинакаждом из узлов кластера создается программно-определяемый [[коммутатор>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%BA%D0%BE%D0%BC%D0%BC%D1%83%D1%82%D0%B0%D1%82%D0%BE%D1%80]].72 +1. Слой сети – SDN 92 92 93 - [[image:1707342322789-137.png||data-xwiki-image-style-border="true"]]74 +Beecloud stack предоставляет три варианта технологического обеспечения виртуальных сетей: 94 94 95 -Свойства экземпляра сети: 76 +* VLAN; 77 +* VxLAN; 78 +* GENEVE (собственная имплементация). 96 96 97 -* собственный [[MTU>>https://wiki.dfcloud.ru/bin/view/Glossary/MTU]], 98 -* поддержка Jumbo Frames, 99 -* поддержка TSO/GSO, 100 -* поддержка TCP MSS clamping «из коробки», 80 +При создании новой виртуальной сети на каждом из Узлов Кластера создается программно-определяемый коммутатор. 81 + 82 +[[image:1707342322789-137.png]] 83 + 84 +РИСУНОК 4. SDN – SOFTWARE DEFINED NETWORKING 85 + 86 +Каждый экземпляр сети имеет следующие свойства: 87 + 88 +* собственный MTU; 89 +* поддержка Jumbo Frames; 90 +* поддержка TSO/GSO; 91 +* поддержка TCP MSS clamping «из коробки»; 101 101 * поддержка Path MTU Discovery «из коробки». 102 102 103 103 Лимиты SDN: 104 104 105 -* Максимальное количество сетей — 65536. 106 -* 1 048 576 портов на коммутаторе одного узла. 107 -* Производительность виртуального порта ВМ: 22 Гбит/с / 2.5 Mpps. 108 -))) 96 +* максимальное количество сетей – 65536; 97 +* 1 048 576 портов на коммутаторе одного узла; 98 +* Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps.