Итак, мы собрали всё в одном месте. Всё хорошо?
Пока работает - да.

Но, по-хорошему, нам требуется избыточность на случай непредвиденных сбоев.
Именно это, как правило, подразумевается под переходом нашего конвергентного решения в гиперконвергентное - сверхсходящееся.
Грубо говоря, давайте повторим (задублируем) всё, что мы сделали раньше.
При этом, помимо того что мы всё это сделаем избыточным, мы можем обойтись без простоя избыточного оборудования - он может принимать на себя имеющиеся рабочие нагрузки, приводя к росту эффективности.
Остаётся ряд нюансов, относящихся к тому, что делать
в случае выхода
из строя?
К примеру,
что делать с сервером, который то потухнет, то вновь включится?
Однозначно - отключить пока он не перестанет кувыркаться (умерла, так умерла!). Для этого применяется выгораживание (fencing). При данном процессе начавшее шалить устройство отключается совсем либо от питания, либо хотя бы от сетевой среды. И возвращается обратно в строй только после того, как вы убедитесь в его полном восстановлении.
Мы ничего не забыли? Давайте подумаем: что будет если имеющиеся у вас серверы продолжают работать, но при этом утратили связь друг с другом.

Допустим, у вас таких сервера всего два. Кто из них главный?
Кто именно должен продолжать поддерживать работу
клиентов? Эта проблема обычно именуется раздвоенным сознанием (split-brain). Одним из способов его решения является нахождение кворума (большинства). Иными словами
победителем выходит та часть, в которой осталось больше серверов.
Да, и вы правильно поняли - серверов для этого требуется нечётное число больше двух. Microsoft предлагает
элегантное решение как обойтись двумя серверами, размещая решающий голос на USB - устройстве хранения, которое, например, можно вставить в сетевой коммутатор.
Итак, повторим, чем мы можем быть вам полезными:
  • организовать эффективную, работающую без простоев избыточность
  • наладить квотирование
  • реализовать выгораживание
  • и так далее
4 узла в 2U шасси с доступом к серверам с тыловой стороны
Реализация 2019 - 512 ядер/ 1k тредов в 2U


  • 2x ЦПУ семейства AMD EPYC™ 7002 в 8x разъёмах SP3/ LGA4090
  • 8-ми канальная ОЗУ DDR4 до 3200МГц, 8x8x DIMM
  • 4x6x 2.5" NVMe SSD дисковых устройств с горячим резервированием (блок- схема узла)
  • 4x2x M.2 ( до 22110) PCIe Gen3 x48x 1GbE, 4x выделенных портов управления + 2x порта глобального управлеия шасси (объединяемые в кольцо)
  • 4x2x PCIe Gen4 x16 слотов расширения с низким профилем
  • 4x PCIe Gen3 x16 мезанинных слотов расширения OCP 2
  • 2x 2.2кВт блока питания с горячим резервированием 80 PLUS Platinum с понижением энергопотребления переводом второго блока в режим ожидания при падении нагрузки ниже 40%
  • Управление IPMI/ Redfish через специализировнный сервер управления/ агентов/ мобильных клиентов/ CLI/ подключаемые модули
  • Запросы по расчёту конфигураций принимаются индивидуально

Реализация - Миникластер

В качестве базового миникластера мы предлагаем вам комплект из трёх машин. Желательно, одинаковых.

Предполагается, что в серверах будет установлен один из распространённых
гипервизоров: KVM / Hyper-V/ VMware/ Xen при помощи которых, поднимается кластер
распределённых виртуальных машин и/ или контейнеров, например, Docker под
управленимем Kubernetes.
Для организации внутренней сетевой среды в конфигурации из трёх машин предлагается
кольцо на базе высокоскоростных двухпортовых адаптеров. При увеличении числа узлов
масштабирование этой сетевой среды осцществляется соответствующим коммутатором.
В таком кластере вы можете организовать на базе Ceph или Storage Spaces (Direct или
простого) распределённую систему хранения.
Предлагаемые системы хранения, помимо нативных методов распределения хранимых данных допускают применение iSCSI и SMB/ NFS. Кластер допускает установку графических контроллеров GPU для целей VDI / ускорения расчётов для организации кольца обмена данными.
Кластер допускает установку графических контроллеров GPU для целей VDI / ускорения
расчётов.

Module Epyc Ceph NVMe
Серверная платформа для построения распределённого масштабируемого решения хранения данных с исключением единой точки отказа. С применением устройств хранения NVMe.
Все серверы снабжены 2x 25GbE, 1x 1GbE и 2x NVMe 120 ГБ для операционной системы. Для достижения максимальной пропускной способности памяти, рекомендуется установка с занятием всех имеющихся в системе каналов памяти.

Компания «Пиксель»
+7(499)133-43-96
info@b2bpik.ru
117393, г. Москва,
ул. Академика Пилюгина, д. 24, офис 103
Партнеры
  • Lenovo
  • HP
  • Fujitsu
  • Supermicro
  • Cisco
  • Huawei
  • Inspur
  • Vmware
Заказать обратный звонок
© 2021 Компания «Пиксель»