Исходный код вики 1. Архитектура сервиса
Версия 7.1 от Ирина Сафонова на 08.02.2024, 01:30
Последние авторы
| author | version | line-number | content |
|---|---|---|---|
| 1 | {{box cssClass="floatinginfobox" title="**Содержание**"}} | ||
| 2 | {{toc/}} | ||
| 3 | {{/box}} | ||
| 4 | |||
| 5 | (% data-xwiki-non-generated-content="java.util.List" %) | ||
| 6 | ((( | ||
| 7 | = Слои сервиса = | ||
| 8 | |||
| 9 | ---- | ||
| 10 | |||
| 11 | == Физический слой == | ||
| 12 | |||
| 13 | В слое организована сетевая связность базовых физических элементов (серверов). | ||
| 14 | |||
| 15 | == Кластерный слой == | ||
| 16 | |||
| 17 | В слое работают службы обеспечения программно-определяемых слоев: | ||
| 18 | |||
| 19 | * SDS (Software Defined Storage), | ||
| 20 | * SDN (Software Defined Networking), | ||
| 21 | * SDC (Software Defined Computing). | ||
| 22 | |||
| 23 | Главная задача слоя — обеспечение резервирования элементов инфраструктуры до узлов. **Резервирование элементов инфраструктуры (Failover) **— процедура резервирования при аварийных ситуациях. Процедура проводится кластерным фреймворком, поэтому не требует вмешательства человека. | ||
| 24 | |||
| 25 | Слой формируется в виде работы кластерного ПО на каждом из узлов. | ||
| 26 | |||
| 27 | === SDS === | ||
| 28 | |||
| 29 | Слой SDC работает на базе [[гипервизора>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%93%D0%B8%D0%BF%D0%B5%D1%80%D0%B2%D0%B8%D0%B7%D0%BE%D1%80]] второго типа (bhyve). Производительность bhyve выше, чем у других популярных гипервизоров. Оптимизация bhyve до сих пор продолжается. Средства аппаратного ускорения виртуальных вычислений поддерживаются на современных процессорах Intel. Гипервизор bhyve поддерживает работу в условиях [[CPU overcommit>>https://wiki.dfcloud.ru/bin/view/Glossary/CPU%20Overcommit]]. | ||
| 30 | |||
| 31 | **Экземпляр SDC** — [[виртуальная машина>>https://wiki.dfcloud.ru/bin/view/Glossary/%D0%92%D0%9C]] (ВМ), являющаяся совокупной сущностью трех элементов: | ||
| 32 | |||
| 33 | * CPU/RAM, | ||
| 34 | * Виртуальные сетевые порты, подключенные к слою SDN. | ||
| 35 | * Виртуальные дисковые устройства, подключенные к слою SDS. | ||
| 36 | |||
| 37 | [[image:1707342322756-453.png||data-xwiki-image-style-border="true"]] | ||
| 38 | |||
| 39 | В каталоге для ВМ доступно три образа гостевых ОС: | ||
| 40 | |||
| 41 | * FreeBSD, | ||
| 42 | * Linux (OEL/CentOS/Ubuntu/Debian и т.д.), | ||
| 43 | * Windows 2016, 2019, 2022. | ||
| 44 | |||
| 45 | Работоспособность решения **beecloud stack** с другими гостевыми ОС не исключается из-за небольших требований к ним. Примеры требований: | ||
| 46 | |||
| 47 | * загрузка в режиме UEFI, | ||
| 48 | * наличие драйверов virtio, | ||
| 49 | * наличие cloud-init. | ||
| 50 | |||
| 51 | Диски ВМ создаются на том же пуле, на котором была создана эта ВМ. В процессе создания ВМ существуют следующие возможности выбора пула, ресурсы которого будут использоваться: | ||
| 52 | |||
| 53 | * Селекторы — автоматический выбор пула, на котором наименьшее совокупное значение таких параметров, как: | ||
| 54 | ** CPU, | ||
| 55 | ** RAM, | ||
| 56 | ** дисковое пространство. | ||
| 57 | * Явное указание пула. | ||
| 58 | |||
| 59 | Легковесность beecloud stack — основная причина низкого значения Overhead (снижение производительности виртуальной машины относительно физического сервера вследствие значимости накладных расходов гипервизора). | ||
| 60 | |||
| 61 | |||
| 62 | == SDS | ||
| 63 | |||
| 64 | На основе ресурсных примитивов из кластерного слоя формируется слой хранения (SDS). Технологической основой SDS является ZFS – файловая система, объединенная с менеджером логических томов, которая также обладает совокупностью уникальных свойств. Единица грануляции слоя SDS – пул, собранный из дисков каждого узла c избыточностью равной избыточности кластера (N+ 2). В момент времени пул работает на конкретном узле кластера. | ||
| 65 | |||
| 66 | Возможности слоя хранения: | ||
| 67 | |||
| 68 | * компрессия и дедупликация; | ||
| 69 | * внутренняя целостность данных; | ||
| 70 | * клоны, снимки; | ||
| 71 | * самовосстановление данных; | ||
| 72 | * транзакционная целостность. | ||
| 73 | |||
| 74 | На схеме ниже изображен пятиузловой кластер. Вертикальные контейнеры — пулы, горизонтальные — узлы кластера. | ||
| 75 | |||
| 76 | В случае выхода из строя узла за счет механизма fencing (процесс исключения узла из кластера) узел, на котором возникла проблема, будет исключен из кластера, а все пулы потеряют по одному диску. При этом кластер автоматически выполнит процедуру аварийного переключения (failover) ресурсов данного узла, и пул, работавший на узле, вышедшем из строя, станет доступен на другом узле. Все ВМ продолжат свою работу на другом узле. | ||
| 77 | |||
| 78 | [[image:1707342322778-969.png]] | ||
| 79 | |||
| 80 | Рисунок 3. Пятиузловый кластер | ||
| 81 | |||
| 82 | |||
| 83 | 1. Слой сети – SDN | ||
| 84 | |||
| 85 | Beecloud stack предоставляет три варианта технологического обеспечения виртуальных сетей: | ||
| 86 | |||
| 87 | * VLAN; | ||
| 88 | * VxLAN; | ||
| 89 | * GENEVE (собственная имплементация). | ||
| 90 | |||
| 91 | При создании новой виртуальной сети на каждом из Узлов Кластера создается программно-определяемый коммутатор. | ||
| 92 | |||
| 93 | [[image:1707342322789-137.png]] | ||
| 94 | |||
| 95 | РИСУНОК 4. SDN – SOFTWARE DEFINED NETWORKING | ||
| 96 | |||
| 97 | Каждый экземпляр сети имеет следующие свойства: | ||
| 98 | |||
| 99 | * собственный MTU; | ||
| 100 | * поддержка Jumbo Frames; | ||
| 101 | * поддержка TSO/GSO; | ||
| 102 | * поддержка TCP MSS clamping «из коробки»; | ||
| 103 | * поддержка Path MTU Discovery «из коробки». | ||
| 104 | |||
| 105 | Лимиты SDN: | ||
| 106 | |||
| 107 | * максимальное количество сетей – 65536; | ||
| 108 | * 1 048 576 портов на коммутаторе одного узла; | ||
| 109 | * Производительность виртуального порта ВМ: 22 GBps / 2.5Mpps. | ||
| 110 | ))) |