Предварительные требования для платформы Nexus оператора
Операторы должны выполнить предварительные требования перед развертыванием программного обеспечения платформы Operator Nexus. Некоторые из этих шагов могут занять длительное время, поэтому обзор этих предварительных требований может оказаться полезным.
В последующих развертываниях экземпляров Operator Nexus можно перейти к созданию локальной сетевой структуры и кластера.
Предварительные требования Azure
При первом развертывании Оператора Nexus или в новом регионе сначала необходимо создать контроллер Network Fabric, а затем диспетчер кластеров, как указано здесь. Кроме того, необходимо выполнить следующие задачи:
- Настройка пользователей, политик, разрешений и RBAC
- Настройте группы ресурсов для размещения и группирования ресурсов логическим образом, который будет создан для платформы Operator Nexus.
- Установка подключения ExpressRoute из глобальной сети к региону Azure
- Чтобы включить Microsoft Defender для конечной точки для локальных компьютеров без операционной системы (BMM), необходимо выбрать план Defender для серверов в подписке Operator Nexus перед развертыванием. Дополнительные сведения см . здесь.
Предварительные требования к локальной среде
При развертывании локального экземпляра Operator Nexus в центре обработки данных различные команды, скорее всего, участвуют в выполнении различных ролей. Чтобы обеспечить успешную установку программного обеспечения платформы, необходимо точно выполнить следующие задачи.
Настройка физического оборудования
Оператор, который хочет воспользоваться преимуществами службы Operator Nexus, должен приобрести, установить, настроить и управлять аппаратными ресурсами. В этом разделе документа описываются необходимые компоненты и усилия по приобретению и реализации соответствующих аппаратных систем. В этом разделе рассматриваются счета за материалы, схема высот стойки и схема кабелей, а также шаги, необходимые для сборки оборудования.
Использование законопроекта о материалах (BOM)
Чтобы обеспечить простой интерфейс оператора, Оператор Nexus разработал BOM для приобретения оборудования, необходимого для службы. Это полный список необходимых компонентов и количества, необходимых для реализации среды для успешной реализации и обслуживания локального экземпляра. BOM структурирован для предоставления оператору ряда единиц хранения запасов (SKU), которые можно заказать у поставщиков оборудования. Номера SKU рассматриваются далее в документе.
Использование схемы повышения прав
Схема повышения высоты стойки — это графическая ссылка, демонстрирующая, как серверы и другие компоненты вписываются в собранные и настроенные стойки. Схема повышения высоты стойки предоставляется в рамках общих инструкций по сборке. Это поможет сотрудникам операторов правильно настроить и установить все компоненты оборудования, необходимые для работы службы.
Схема подключения
Схемы кабелей — это графическое представление кабелей, необходимых для предоставления сетевых служб компонентам, установленным в стойких. После схемы подключения обеспечивает правильную реализацию различных компонентов в сборке.
Порядок на основе номера SKU
Определение SKU
SKU — это метод управления инвентаризацией и отслеживания, позволяющий группировать несколько компонентов в один конструктор. Номер SKU позволяет оператору упорядочивать все необходимые компоненты с указанием одного номера SKU. Номер SKU ускоряет взаимодействие оператора и поставщика при уменьшении ошибок заказа из-за сложных списков частей.
Размещение заказа на основе SKU
Оператор Nexus создал ряд номеров SKU с поставщиками, такими как Dell, Pure Storage и Arista, которые оператор может ссылаться при месте заказа. Таким образом, оператору просто нужно разместить заказ на основе сведений SKU, предоставленных оператором Nexus поставщику, чтобы получить правильный список частей для сборки.
Создание физического оборудования
Сборка физического оборудования выполняется с помощью ряда шагов, которые будут подробно описаны в этом разделе. Перед выполнением сборки необходимо выполнить три шага. В этом разделе также рассматриваются предположения, касающиеся навыков сотрудников оператора для выполнения сборки.
Заказ и получение номера SKU конкретной инфраструктуры оборудования
Порядок соответствующего номера SKU и доставка оборудования на сайт должен произойти до начала сборки. Достаточное время должно быть разрешено для этого шага. Мы рекомендуем оператору взаимодействовать с поставщиком оборудования в начале процесса, чтобы обеспечить и понять сроки доставки.
Подготовка места
Сайт установки может поддерживать аппаратную инфраструктуру с точки зрения пространства, питания и сети. Требования к конкретному сайту определяются номером SKU, приобретенным для сайта. Этот шаг можно выполнить после размещения заказа и до получения номера SKU.
Планирование ресурсов
В процессе сборки требуется несколько различных сотрудников для выполнения сборки, таких как инженеры, чтобы обеспечить питание, сетевой доступ и кабели, системный персонал для сборки стоек, коммутаторов и серверов, чтобы назвать несколько. Чтобы обеспечить своевременное выполнение сборки, рекомендуется заранее планировать этих участников группы на основе расписания доставки.
Предположения о создании навыков персонала
Сотрудники, выполняющие сборку, должны быть опытными при сборке оборудования систем, таких как стойки, коммутаторы, pdus и серверы. Приведенные инструкции будут обсуждать шаги процесса, ссылаясь на высоты стойки и схемы кабелей.
Обзор процесса сборки
Если подготовка сайта завершена и проверена для поддержки упорядоченного номера SKU, процесс сборки выполняется следующим образом:
- Соберите стойки на основе высот стоек номера SKU. Конкретные инструкции по сборке стойки будут предоставлены производителем стойки.
- После сборки стоек установите устройства структуры в стойки на схеме высот.
- Подключите сетевые интерфейсы к схеме кабелей устройства структуры.
- Сборка и установка серверов на схему повышения высоты стойки.
- Соберите и установите устройство хранения на схему повышения высоты стойки.
- Подключите серверные и запоминающие устройства, подключив сетевые интерфейсы на схеме кабелей.
- Кабельная мощность с каждого устройства.
- Проверка и проверка сборки с помощью контрольных списков, предоставляемых оператором Nexus и другими поставщиками.
Как визуально проверить установку физического оборудования
Во время сборки рекомендуется пометить все кабели по стандартам ANSI/TIA 606 или стандартам оператора. Процесс сборки также должен создать обратное сопоставление для подключения из порта коммутатора к удаленному подключению. Обратное сопоставление можно сравнить с схемой кабелей для проверки установки.
Настройка массива хранилища и сервера терминалов
Теперь, когда физическая установка и проверка завершены, выполните следующие действия, связанные с настройкой параметров по умолчанию, необходимых перед установкой программного обеспечения платформы.
Настройка сервера терминала
Сервер терминала развернут и настроен следующим образом:
- Сервер терминала настроен для управления внеполосным доступом
- Учетные данные проверки подлинности настроены
- DHCP-клиент включен в порте управления вне полосы
- Http-доступ включен
- Интерфейс сервера терминала подключен к операторам локальных маршрутизаторов Edge поставщика (PEs) и настраивается с IP-адресами и учетными данными
- Сервер терминалов доступен из VPN управления
Шаг 1. Настройка имени узла
Чтобы настроить имя узла для сервера терминала, выполните следующие действия.
Используйте следующую команду в интерфейсе командной строки:
sudo ogcli update system/hostname hostname=\"$TS_HOSTNAME\"
Параметры:
имени параметра | Description |
---|---|
TS_HOSTNAME | Имя узла сервера терминала |
Дополнительные сведения см. в справочнике по CLI.
Шаг 2. Настройка сети
Чтобы настроить параметры сети, выполните следующие действия.
Выполните следующие команды в интерфейсе командной строки:
sudo ogcli create conn << 'END'
description="PE1 to TS NET1"
mode="static"
ipv4_static_settings.address="$TS_NET1_IP"
ipv4_static_settings.netmask="$TS_NET1_NETMASK"
ipv4_static_settings.gateway="$TS_NET1_GW"
physif="net1"
END
sudo ogcli create conn << 'END'
description="PE2 to TS NET2"
mode="static"
ipv4_static_settings.address="$TS_NET2_IP"
ipv4_static_settings.netmask="$TS_NET2_NETMASK"
ipv4_static_settings.gateway="$TS_NET2_GW"
physif="net2"
END
Параметры:
имени параметра | Description |
---|---|
TS_NET1_IP | IP-адрес сервера терминала PE1 до TS NET1 |
TS_NET1_NETMASK | Сервер терминала PE1 в TS NET1 netmask |
TS_NET1_GW | Шлюз TS NET1 сервера терминалов PE1 в шлюз TS NET1 |
TS_NET2_IP | IP-адрес сервера терминалов PE2 до TS NET2 |
TS_NET2_NETMASK | Сервер терминала PE2 в netmask TS NET2 |
TS_NET2_GW | Шлюз PE2 сервера терминалов для шлюза TS NET2 |
Примечание.
Обязательно замените эти параметры соответствующими значениями.
Шаг 3. Очистка интерфейса net3 (если существует)
Чтобы очистить интерфейс net3, выполните следующие действия.
- Проверьте любой интерфейс, настроенный в физическом интерфейсе net3 и "Статический адрес IPv4 по умолчанию", используя следующую команду:
ogcli get conns
**description="Default IPv4 Static Address"**
**name="$TS_NET3_CONN_NAME"**
**physif="net3"**
Параметры:
имени параметра | Description |
---|---|
TS_NET3_CONN_NAME | Имя подключения сервера терминалов NET3 |
- Удалите интерфейс, если он существует:
ogcli delete conn "$TS_NET3_CONN_NAME"
Примечание.
Обязательно замените эти параметры соответствующими значениями.
Шаг 4. Настройка пользователя администратора поддержки
Чтобы настроить пользователя администратора поддержки, выполните следующие действия.
- Для каждого пользователя выполните следующую команду в CLI:
ogcli create user << 'END'
description="Support Admin User"
enabled=true
groups[0]="admin"
groups[1]="netgrp"
hashed_password="$HASHED_SUPPORT_PWD"
username="$SUPPORT_USER"
END
Параметры:
имени параметра | Description |
---|---|
SUPPORT_USER | Пользователь службы поддержки |
HASHED_SUPPORT_PWD | Закодированный пароль администратора поддержки |
Примечание.
Обязательно замените эти параметры соответствующими значениями.
Шаг 5. Добавление поддержки sudo для пользователей администратора
Чтобы добавить поддержку sudo для администраторов, выполните следующие действия.
- Откройте файл конфигурации sudoers:
sudo vi /etc/sudoers.d/opengear
- Добавьте следующие строки для предоставления доступа к sudo:
%netgrp ALL=(ALL) ALL
%admin ALL=(ALL) NOPASSWD: ALL
Примечание.
Сохраните изменения после редактирования файла.
Эта конфигурация позволяет членам группы netgrp выполнять любую команду, так как любой пользователь и члены группы "администратор" выполняют любую команду, как любой пользователь, не требуя пароля.
Шаг 6. Обеспечение доступности службы LLDP
Чтобы убедиться, что служба LLDP доступна на сервере терминала, выполните следующие действия.
Проверьте, запущена ли служба LLDP:
sudo systemctl status lldpd
Вы должны увидеть выходные данные, аналогичные следующему, если служба запущена:
lldpd.service - LLDP daemon
Loaded: loaded (/lib/systemd/system/lldpd.service; enabled; vendor preset: disabled)
Active: active (running) since Thu 2023-09-14 19:10:40 UTC; 3 months 25 days ago
Docs: man:lldpd(8)
Main PID: 926 (lldpd)
Tasks: 2 (limit: 9495)
Memory: 1.2M
CGroup: /system.slice/lldpd.service
├─926 lldpd: monitor.
└─992 lldpd: 3 neighbors.
Notice: journal has been rotated since unit was started, output may be incomplete.
Если служба не активна (выполняется), запустите службу:
sudo systemctl start lldpd
Включите службу для запуска при перезагрузке:
sudo systemctl enable lldpd
Примечание.
Убедитесь, что служба LLDP всегда доступна и запускается автоматически при перезагрузке.
Шаг 7. Проверка даты и времени системы
Убедитесь, что системная дата и время правильно заданы, а часовой пояс для сервера терминала находится в формате UTC.
Проверьте параметр часового пояса:
Чтобы проверить текущий параметр часового пояса, выполните следующие действия.
ogcli get system/timezone
Задайте часовой пояс в формате UTC:
Если часовой пояс не задан в формате UTC, его можно задать с помощью:
ogcli update system/timezone timezone=\"UTC\"
Проверьте текущую дату и время:
Проверьте текущую дату и время:
date
Исправление даты и времени, если неправильно:
Если дата и время неверны, его можно исправить с помощью:
ogcli replace system/time
Reading information from stdin. Press Ctrl-D to submit and Ctrl-C to cancel.
time="$CURRENT_DATE_TIME"
Параметры:
имени параметра | Description |
---|---|
CURRENT_DATE_TIME | Текущее время даты в формате hh:mmM DD, ГГГГ |
Примечание.
Убедитесь, что система даты и времени является точной, чтобы предотвратить проблемы с приложениями или службами, зависящими от него.
Шаг 8. Присвоение меток портам сервера терминалов (если отсутствует или неправильно)
Чтобы наметить порты сервера терминалов, используйте следующую команду:
ogcli update port "port-<PORT_#>" label=\"<NEW_NAME>\" <PORT_#>
Параметры:
имени параметра | Description |
---|---|
NEW_NAME | Имя метки порта |
ПОРТ_ # | Номер порта сервера терминала |
Шаг 9. Параметры, необходимые для последовательных подключений массива PURE
В массивах pure Storage, приобретенных до 2024 года, есть контроллеры R3, использующие кабели консоли отката и требующие следующих команд подключения к пользовательскому последовательному порту:
Чистые контроллеры Stoarge R3:
ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X1"' <PORT_#> Pure Storage Controller console
Новые устройства Pure Storage и системы, обновленные с R3 до контроллеров хранилища R4 Pure Storage, будут использовать прямые кабели консоли с обновленными параметрами ниже:
Контроллеры R4 чистого хранилища:
ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X2"' <PORT_#> Pure Storage Controller console
Параметры:
имени параметра | Description |
---|---|
ПОРТ_ # | Номер порта сервера терминала |
Эти команды задают частоту выполнения и закрепление для подключения к консоли контроллера хранилища Pure.
Примечание.
Все остальные параметры конфигурации портов сервера терминалов должны оставаться неизменными и работать по умолчанию с прямым кабелем консоли RJ45.
Шаг 10. Проверка параметров
Чтобы проверить параметры конфигурации, выполните следующие команды:
ping $PE1_IP -c 3 # Ping test to PE1 //TS subnet +2
ping $PE2_IP -c 3 # Ping test to PE2 //TS subnet +2
ogcli get conns # Verify NET1, NET2, NET3 Removed
ogcli get users # Verify support admin user
ogcli get static_routes # Ensure there are no static routes
ip r # Verify only interface routes
ip a # Verify loopback, NET1, NET2
date # Check current date/time
pmshell # Check ports labelled
sudo lldpctl
sudo lldpcli show neighbors # Check LLDP neighbors - should show data from NET1 and NET2
Примечание.
Убедитесь, что соседи LLDP должным образом указывают на успешные подключения к PE1 и PE2.
Пример выходных данных соседей LLDP:
-------------------------------------------------------------------------------
LLDP neighbors:
-------------------------------------------------------------------------------
Interface: net2, via: LLDP, RID: 2, Time: 0 day, 20:28:36
Chassis:
ChassisID: mac 12:00:00:00:00:85
SysName: austx502xh1.els-an.att.net
SysDescr: 7.7.2, S9700-53DX-R8
Capability: Router, on
Port:
PortID: ifname TenGigE0/0/0/0/3
PortDescr: GE10_Bundle-Ether83_austx4511ts1_net2_net2_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
TTL: 120
-------------------------------------------------------------------------------
Interface: net1, via: LLDP, RID: 1, Time: 0 day, 20:28:36
Chassis:
ChassisID: mac 12:00:00:00:00:05
SysName: austx501xh1.els-an.att.net
SysDescr: 7.7.2, S9700-53DX-R8
Capability: Router, on
Port:
PortID: ifname TenGigE0/0/0/0/3
PortDescr: GE10_Bundle-Ether83_austx4511ts1_net1_net1_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
TTL: 120
-------------------------------------------------------------------------------
Примечание.
Убедитесь, что выходные данные соответствуют вашим ожиданиям и что все конфигурации верны.
Настройка массива хранилища
- Оператору необходимо установить оборудование массива хранилища, указанное bOM и повышением высоты стойки в стойке агрегирования.
- Оператору необходимо предоставить специалисту по массиву хранилища сведения, чтобы специалист по массиву хранилища прибыл на сайт, чтобы настроить устройство.
- Обязательные данные, относящиеся к расположению, которые совместно используются специалистом по массиву хранилища:
- Имя клиента:
- Дата физической проверки:
- Серийный номер корпуса:
- Имя узла массива хранилища:
- Код CLLI (идентификатор расположения общего языка):
- Адрес установки:
- Расположение FIC/Rack/Grid:
- Данные, предоставляемые оператору и совместно используемые специалистом по массиву хранилища, которые будут общими для всех установок:
- Уровень кода чистоты: обратитесь к поддерживаемым версиям Purity
- Безопасный режим: отключен
- Часовой пояс массива: UTC
- IP-адрес СЕРВЕРА DNS (система доменных имен): 172.27.255.201
- Суффикс домена DNS: не задан оператором во время установки
- IP-адрес сервера NTP (протокол сетевого времени) или полное доменное имя: 172.27.255.212
- Основной системный журнал: 172.27.255.210
- Дополнительный системный журнал: 172.27.255.211
- IP-адрес шлюза SMTP или полное доменное имя: не задан оператором во время установки.
- Доменное имя отправителя электронной почты: доменное имя отправителя электронной почты (example.com)
- Адреса электронной почты, которые должны быть оповещены: не задан оператором во время установки
- Прокси-сервер и порт: не задан оператором во время установки
- Управление: виртуальный интерфейс
- IP-адрес: 172.27.255.200
- Шлюз: 172.27.255.1
- Маска подсети: 255.255.255.0
- MTU: 1500
- Связь: не задан оператором во время установки
- Управление: контроллер 0
- IP-адрес: 172.27.255.254
- Шлюз: 172.27.255.1
- Маска подсети: 255.255.255.0
- MTU: 1500
- Связь: не задан оператором во время установки
- Управление: контроллер 1
- IP-адрес: 172.27.255.253
- Шлюз: 172.27.255.1
- Маска подсети: 255.255.255.0
- MTU: 1500
- Связь: не задан оператором во время установки
- Номер виртуальной локальной сети или префикс: 43
- ct0.eth10: не задан оператором во время установки
- ct0.eth11: не задан оператором во время установки
- ct0.eth18: не задан оператором во время установки
- ct0.eth19: не задан оператором во время установки
- ct1.eth10: не задан оператором во время установки
- ct1.eth11: не задан оператором во время установки
- ct1.eth18: не задан оператором во время установки
- ct1.eth19: не задан оператором во время установки
- Чистый тонируемый для применения:
- puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";
- puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";
- puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";
- puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";
- puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";
Назначение IP-адресов iDRAC
Перед развертыванием кластера Nexus лучше всего задать IP-адреса iDRAC при организации аппаратных стоек. Вот как сопоставить серверы с IP-адресами:
- Назначьте IP-адреса на основе положения каждого сервера в стойке.
- Используйте четвертый блок /24 из подсети /19, выделенной для Fabric.
- Начните назначать IP-адреса с нижнего сервера вверх на каждой стойке, начиная с 0,11.
- Продолжайте назначать IP-адреса в последовательности первому серверу в нижней части следующей стойки.
Пример
Диапазон структуры: 10.1.0.0-10.1.31.255 — подсеть iDRAC в четвертом /24 — 10.1.3.0/24.
Стойка | Сервер | IDRAC IP |
---|---|---|
Стойка 1 | Рабочая роль 1 | 10.1.3.11/24 |
Стойка 1 | Рабочая роль 2 | 10.1.3.12/24 |
Стойка 1 | Рабочая роль 3 | 10.1.3.13/24 |
Стойка 1 | Рабочая роль 4 | 10.1.3.14/24 |
Стойка 1 | Рабочая роль 5 | 10.1.3.15/24 |
Стойка 1 | Рабочая роль 6 | 10.1.3.16/24 |
Стойка 1 | Рабочая роль 7 | 10.1.3.17/24 |
Стойка 1 | Рабочая роль 8 | 10.1.3.18/24 |
Стойка 1 | Контроллер 1 | 10.1.3.19/24 |
Стойка 1 | Контроллер 2 | 10.1.3.20/24 |
Стойка 2 | Рабочая роль 1 | 10.1.3.21/24 |
Стойка 2 | Рабочая роль 2 | 10.1.3.22/24 |
Стойка 2 | Рабочая роль 3 | 10.1.3.23/24 |
Стойка 2 | Рабочая роль 4 | 10.1.3.24/24 |
Стойка 2 | Рабочая роль 5 | 10.1.3.25/24 |
Стойка 2 | Рабочая роль 6 | 10.1.3.26/24 |
Стойка 2 | Рабочая роль 7 | 10.1.3.27/24 |
Стойка 2 | Рабочая роль 8 | 10.1.3.28/24 |
Стойка 2 | Контроллер 1 | 10.1.3.29/24 |
Стойка 2 | Контроллер 2 | 10.1.3.30/24 |
Стойка 3 | Рабочая роль 1 | 10.1.3.31/24 |
Стойка 3 | Рабочая роль 2 | 10.1.3.32/24 |
Стойка 3 | Рабочая роль 3 | 10.1.3.33/24 |
Стойка 3 | Рабочая роль 4 | 10.1.3.34/24 |
Стойка 3 | Рабочая роль 5 | 10.1.3.35/24 |
Стойка 3 | Рабочая роль 6 | 10.1.3.36/24 |
Стойка 3 | Рабочая роль 7 | 10.1.3.37/24 |
Стойка 3 | Рабочая роль 8 | 10.1.3.38/24 |
Стойка 3 | Контроллер 1 | 10.1.3.39/24 |
Стойка 3 | Контроллер 2 | 10.1.3.40/24 |
Стойка 4 | Рабочая роль 1 | 10.1.3.41/24 |
Стойка 4 | Рабочая роль 2 | 10.1.3.42/24 |
Стойка 4 | Рабочая роль 3 | 10.1.3.43/24 |
Стойка 4 | Рабочая роль 4 | 10.1.3.44/24 |
Стойка 4 | Рабочая роль 5 | 10.1.3.45/24 |
Стойка 4 | Рабочая роль 6 | 10.1.3.46/24 |
Стойка 4 | Рабочая роль 7 | 10.1.3.47/24 |
Стойка 4 | Рабочая роль 8 | 10.1.3.48/24 |
Стойка 4 | Контроллер 1 | 10.1.3.49/24 |
Стойка 4 | Контроллер 2 | 10.1.3.50/24 |
Пример проектирования трех локальных экземпляров из одной пары NFC/CM с использованием последовательных сетей /19 в /16:
Экземпляр | Диапазон структуры | Подсеть iDRAC |
---|---|---|
Экземпляр 1 | 10.1.0.0-10.1.31.255 | 10.1.3.0/24 |
Экземпляр 2 | 10.1.32.0-10.1.63.255 | 10.1.35.0/24 |
Экземпляр 3 | 10.1.64.0-10.1.95.255 | 10.1.67.0/24 |
Настройка по умолчанию для других устройств, установленных
- Для всех сетевых устройств (за исключением сервера терминалов) задан
ZTP
режим - Серверы имеют параметры фабрики по умолчанию
Правила брандмауэра между кластером Azure и Nexus.
Чтобы установить правила брандмауэра между Azure и кластером Nexus, оператор должен открыть указанные порты. Это обеспечивает надлежащее взаимодействие и подключение для необходимых служб с помощью протокола TCP (протокол управления передачей) и UDP (протокол пользовательской диаграммы данных).
Серийный номер | Источник | Назначение | Порт (TCP/UDP) | Двунаправленная репликация | Назначение правила |
---|---|---|---|---|---|
1 | Виртуальная сеть Azure | Кластер | 22 TCP | No | Для SSH-серверов в подоблачные серверы из подсети CM. |
2 | Виртуальная сеть Azure | Кластер | 443 TCP | No | Доступ к узлам подcloud iDRAC |
3 | Виртуальная сеть Azure | Кластер | 5900 TCP | No | Gnmi |
4 | Виртуальная сеть Azure | Кластер | 6030 TCP | No | Gnmi Certs |
5 | Виртуальная сеть Azure | Кластер | 6443 TCP | No | Доступ к кластеру K8S в cloud |
6 | Кластер | Виртуальная сеть Azure | 8080 TCP | Да | Для подключения ISO-образа к iDRAC обновление среды выполнения NNF |
7 | Кластер | Виртуальная сеть Azure | 3128 TCP | No | Прокси для подключения к глобальным конечным точкам Azure |
8 | Кластер | Виртуальная сеть Azure | 53 TCP и UDP | No | DNS |
9 | Кластер | Виртуальная сеть Azure | 123 UDP | No | NTP |
10 | Кластер | Виртуальная сеть Azure | 8888 TCP | No | Подключение к веб-службе Cluster Manager |
11 | Кластер | Виртуальная сеть Azure | 514 TCP и UDP | No | Доступ к журналам undercloud из диспетчера кластеров |
Установка расширений CLI и входа в подписку Azure
Установите последнюю версию необходимых расширений CLI.
Вход в подписку Azure
az login
az account set --subscription $SUBSCRIPTION_ID
az account show
Примечание.
Учетная запись должна иметь разрешения на чтение и запись и публикацию в подписке