Поделиться через


Развертывание локальных экземпляров Azure и управление ими в VMM

В этой статье содержатся сведения о настройке локального экземпляра Azure в System Center Virtual Machine Manager (VMM). Вы можете развернуть локальный экземпляр Azure, выполнив развертывание на серверах без операционной системы или добавив существующие хосты. Узнайте больше о новой версии Azure Local.

VMM 2022 поддерживает Локальную версию Azure версии 22H2 (поддерживается в VMM 2022 UR1).

В накопительном пакете обновления 3 (UR3) VMM 2019 поддерживается Azure Stack HCI версии 20H2. Текущий продукт — azure Local, версия 23H2.

Внимание

Локальные экземпляры Azure, управляемые Virtual Machine Manager, еще не должны присоединяться к каналу предварительной версии . System Center (включая Virtual Machine Manager, Operations Manager и другие компоненты) в настоящее время не поддерживает версии локальной предварительной версии Azure. Последние обновления см. в блоге System Center.

Перед началом работы

Убедитесь, что вы используете VMM 2019 UR3 или более поздней версии.

Что поддерживается?

  • Добавление, создание и управление локальными экземплярами Azure. См. подробные шаги по созданию и управлению локальными экземплярами Azure.

  • Возможность подготавливать и развертывать виртуальные машины в локальных экземплярах Azure и выполнять операции жизненного цикла виртуальной машины. Виртуальные машины можно подготовить с помощью файлов VHD(x) или из существующей виртуальной машины.  Подробнее.

  • Настройте сеть в локальных экземплярах Azure на основе виртуальной локальной сети (VLAN).

  • Развертывание и управление сетевым контроллером SDN в локальных экземплярах Azure.

  • Управление параметрами пула носителей, созданием виртуальных дисков, созданием общих томов кластера (CSVS) и применением параметров качества обслуживания.

  • Перемещение виртуальных машин между Windows Server и локальными экземплярами Azure осуществляется с помощью сетевой миграции и перемещения выключенной виртуальной машины. В этом сценарии VMM экспортирует и импортирует под капюшоном, несмотря на то, что она выполняется как одна операция.

  • Командлеты PowerShell, используемые для управления кластерами Windows Server, также можно использовать для управления локальными экземплярами Azure.

Убедитесь, что вы используете VMM 2022 UR1 или более поздней версии.

Что поддерживается?

  • Добавление, создание и управление локальными экземплярами Azure. Подробнее см. шаги для создания и управления локальными экземплярами Azure.

  • Возможность подготавливать и развертывать виртуальные машины в локальных экземплярах Azure и выполнять операции жизненного цикла виртуальной машины. Виртуальные машины можно подготовить с помощью файлов VHD(x) или из существующей виртуальной машины.  Подробнее.

  • Настройте сеть VLAN в локальных экземплярах Azure..

  • Развертывание и управление сетевым контроллером SDN в средах Azure Local instances.

  • Управление параметрами пула носителей, созданием виртуальных дисков, созданием общих томов кластера (CSVS) и применением параметров качества обслуживания.

  • Перемещение виртуальных машин между Windows Server и локальными экземплярами в Azure осуществляется через сетевую миграцию и миграцию выключенной виртуальной машины. В этом сценарии VMM экспортирует и импортирует под капюшоном, несмотря на то, что она выполняется как одна операция.

  • Командлеты PowerShell, используемые для управления кластерами Windows Server, также можно использовать для управления локальными экземплярами Azure.

регистрация и отмена регистрации локальных экземпляров Azure

В VMM 2022 мы вводим командлеты VMM PowerShell для регистрации и отмены регистрации локальных экземпляров Azure.

Используйте следующие командлеты для регистрации локальных экземпляров Azure:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Для отмены регистрации кластера используйте следующую команду:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Подробные сведения о поддерживаемом параметре см. в разделе Register-SCAzStackHCI и Unregister-SCAzStackHCI.

Что не поддерживается?

  • Управление локальными растянутыми кластерами Azure в настоящее время не поддерживается в VMM.

  • Локальные компьютеры Azure предназначены для узлов виртуализации, где выполняются все рабочие нагрузки на виртуальных машинах. Локальные термины Azure позволяют выполнять только то, что необходимо для размещения виртуальных машин. Локальные экземпляры Azure не должны использоваться для других целей, таких как серверы WSUS, серверы WDS или серверы библиотеки. Сценарии использования для Azure Local, Когда использовать Azure Localи роли, которые можно выполнять без виртуализации.

  • Динамическая миграция между любой версией Windows Server и локальными экземплярами Azure не поддерживается.

Примечание.

Живая миграция между локальными экземплярами Azure работает, а также между кластерами Windows Server.

  • Единственным типом хранилища, доступным для локальной службы Azure, является локальные дисковые пространства (S2D). Создание или управление кластерами, не использующими S2D, с локальными виртуальными машинами Azure не поддерживается. Если вам нужно использовать любой другой тип хранилища, например SAN, используйте Windows Server в качестве узла виртуализации.

Примечание.

При создании локального экземпляра Azure необходимо включить S2D. Чтобы включить S2D, в мастере создания кластера перейдите в раздел "Общая конфигурация". В разделе "Укажите имя кластера и группу узлов" выберите "Включить Локальные дисковые пространства", как показано ниже:

Снимок экрана: включена S2D.

После включения кластера с S2D VMM выполняет следующие действия:

  • Включена функция отказоустойчивой кластеризации.
  • Реплика хранилища и дедупликация данных включены.
  • Кластер при необходимости проверяется и создается.
  • включается S2D и в VMM создается объект массива хранения с тем же именем, которое указано в мастере.

Если вы используете VMM для создания гиперконвергентного кластера, пул и уровни хранилища автоматически создаются путем запуска Enable-ClusterStorageSpacesDirect -Autoconfig $True.

После выполнения этих предварительных требований подготовьте кластер и настроите ресурсы хранилища на нем. Затем можно развернуть виртуальные машины в кластере.

Выполните следующие действия:

Шаг 1. Подготовка кластера

Кластер можно подготовить узлами Hyper-V и компьютерами без операционной системы:

Подготовка кластера из узлов Hyper-V

Если необходимо добавить локальные компьютеры Azure в структуру VMM, выполните следующие действия. Если они уже в структуре VMM, перейдите к следующему шагу.

Примечание.

  • При настройке кластера выберите параметр "Включить Локальные дисковые пространства" на странице "Общая конфигурация" мастера создания кластера Hyper-V.
  • В поле "Тип ресурса" выберите существующие серверы под управлением операционной системы Windows Server и выберите узлы Hyper-V, которые нужно добавить в кластер.
  • Все выбранные узлы должны иметь локальную установку Azure.
  • Так как S2D включен, кластер должен быть проверен.

Подготовка кластера на компьютерах без операционной системы

Примечание.

Как правило, для узла S2D требуются параметры RDMA, QoS и SET. Чтобы настроить эти параметры для узла с помощью компьютеров без операционной системы, можно использовать возможность скрипта после развертывания в PCP. Ниже приведен пример скрипта после развертывания PCP. Этот скрипт также можно использовать для настройки RDMA, QoS и SET при добавлении нового узла в существующее развертывание S2D с компьютеров без операционной системы.

  1. Ознакомьтесь с предварительными условиями развертывания кластера без операционной системы.

Примечание.

  • Обобщенный VHD или VHDX в библиотеке VMM должен запускать Azure Stack HCI с последними обновлениями. Необходимо задать значения платформы операционной системы и виртуализации для жесткого диска.
  • Для развертывания без операционной системы необходимо добавить сервер среды выполнения предварительной загрузки (PXE) в структуру VMM. Сервер PXE предоставляется через службы развертывания Windows. VMM использует свой собственный образ WinPE, и необходимо убедиться, что это последняя версия. Для этого выберите образ>Структуры>WinPE и убедитесь, что задание завершится.
  1. Следуйте инструкциям по подготовке кластера на компьютерах без операционной системы.

Шаг 2. Настройка сети для кластера

После подготовки и управления кластером в структуре VMM необходимо настроить сеть для узлов кластера.

  1. Сначала создайте логическую сеть для зеркального отображения физической сети управления.
  2. Необходимо настроить логический коммутатор с включенным параметром Switch Embedded Teaming (SET), чтобы коммутатор знал о виртуализации. Этот коммутатор подключен к логической сети управления и имеет все виртуальные адаптеры узла, необходимые для предоставления доступа к сети управления или настройки сети хранения. S2D использует сеть для обмена данными между узлами. Рекомендуется использовать адаптеры с поддержкой RDMA.
  3. Создание сетей виртуальных машин.

Шаг 3. Настройка параметров DCB в локальном экземпляре Azure

Примечание.

Настройка параметров DCB является необязательным шагом для обеспечения высокой производительности во время рабочего процесса создания кластера S2D. Перейдите к шагу 4, если вы не хотите настраивать параметры DCB.

Рекомендации

  • Если у вас развернуты виртуальные сетевые адаптеры для оптимальной производительности, рекомендуется сопоставить все виртуальные сетевые адаптеры с соответствующими PNICs. Сходство между виртуальным сетевым адаптером и pNIC устанавливается случайным образом операционной системой, и могут возникнуть сценарии, в которых несколько виртуальных сетевых карт сопоставляются с одной и той же pNIC. Чтобы избежать таких сценариев, рекомендуется вручную задать сходство между виртуальным сетевым адаптером и pNIC, выполнив описанные здесь действия.

  • При создании профиля порта сетевого адаптера рекомендуется разрешить приоритет IEEE. Подробнее.

    Вы также можете задать приоритет IEEE с помощью следующих команд PowerShell:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Чтобы настроить параметры DCB, выполните следующие действия.

  1. Создайте новый кластер Hyper-V, выберите "Включить Локальные дисковые пространства". Параметр конфигурации DCB добавляется в рабочий процесс создания кластера Hyper-V.

    Снимок экрана: кластер Hyper-V.

  2. В конфигурации DCB выберите Настройка бриджинга Центра обработки данных.

  3. Укажите значения приоритета и пропускной способности для трафика SMB-Direct и Кластера Heartbeat.

Примечание.

Значения по умолчанию назначаются приоритету и пропускной способности. Настройте эти значения на основе потребностей вашей организации в среде.

Снимок экрана: пропускная способность приоритета.

Значения по умолчанию:

Класс трафика Приоритет Пропускная способность (%)
Пульс кластера 7 1
SMB-Direct 3 50
  1. Выберите сетевые адаптеры, используемые для трафика хранилища. RDMA включен в этих сетевых адаптерах.

    Примечание.

    В сценарии с конвергентным сетевым адаптером выберите виртуальные сетевые адаптеры хранилища. Базовые PNICs должны быть способными к отображению виртуальных RDMA и доступным для выбора.

    Снимок экрана: включение RMDS.

  2. Просмотрите сводку и нажмите кнопку "Готово".

    Будет создан локальный экземпляр Azure, и параметры DCB настраиваются на всех узлах S2D.

    Примечание.

    • Параметры DCB можно настроить на существующих кластерах Hyper-V S2D, перейдя на страницу "Свойства кластера" и перейдя на страницу конфигурации DCB.
    • Любые внеполновые изменения параметров DCB на любом из узлов приведет к тому, что кластер S2D не соответствует VMM. Параметр исправления будет предоставлен на странице конфигурации DCB свойств кластера, которые можно использовать для принудительного применения параметров DCB, настроенных в VMM на узлах кластера.

Шаг 4. Регистрация локального экземпляра Azure в Azure

После создания локального экземпляра Azure его необходимо зарегистрировать в Azure в течение 30 дней после установки на условия службы Azure Online Service. Если вы используете System Center 2022, используйте командлет Register-SCAzStackHCI в VMM для регистрации локального экземпляра Azure в Azure. Или выполните следующие шаги, чтобы зарегистрировать местный экземпляр Azure в Azure.

Состояние регистрации будет отражено в VMM после успешного обновления кластера.

Шаг 5. Просмотр состояния регистрации экземпляров Azure Stack HCI

  1. В консоли VMM можно просмотреть состояние регистрации и дату последнего подключения кластеров Azure Stack HCI.

  2. Выберите Fabric, щелкните правой кнопкой мыши кластер Azure Stack HCI и выберите "Свойства".

    Снимок экрана: состояние регистрации.

  3. Кроме того, запустите Get-SCVMHost и просмотрите свойства возвращаемого объекта, чтобы проверить состояние регистрации.

Шаг 6. Управление пулом и создание CSV

Теперь можно изменить параметры пула носителей и создать виртуальные диски и csvs.

  1. Выберите массивы хранилища>Fabric.>

  2. Щелкните кластер правой кнопкой мыши, выберите пункт > и пул носителей, который был создан по умолчанию. Вы можете изменить имя по умолчанию и добавить классификацию.

  3. Чтобы создать том CSV, щелкните кластер правой кнопкой мыши и выберите >>.

  4. В типе хранилища мастера>создания томов укажите имя тома и выберите пул носителей.

  5. В емкости можно указать размер тома, файловую систему и устойчивость (сбои, которые не допускаются). Выберите "Настроить расширенные параметры хранилища и уровня", чтобы настроить эти параметры.

    Снимок экрана: параметры тома.

  6. В параметрах хранилища можно указать разделение уровня хранилища, емкость и устойчивость.

    Снимок экрана: настройка параметров хранилища.

  7. В окне "Сводка" проверьте параметры и завершите работу мастера. Виртуальный диск будет создан автоматически при создании тома.

Шаг 7. Развертывание виртуальных машин в кластере

В гиперконвергентной топологии виртуальные машины можно развертывать непосредственно в кластере. Их виртуальные жесткие диски размещаются на томах, созданных с помощью S2D. Вы создаете и развертываете эти виртуальные машины так же, как и любую другую виртуальную машину.

Внимание

Если локальный экземпляр Azure не зарегистрирован в Azure или не подключен к Azure в течение более чем 30 дней после регистрации, создание виртуальной машины высокой доступности (HAVM) будет заблокировано в кластере. Сведения о регистрации кластера см. на шаге 4 и 5.

Шаг 8. Перенос виртуальных машин из Windows Server в локальный экземпляр Azure

Используйте функции миграции сети в VMM для переноса рабочих нагрузок из Hyper-V (Windows Server 2019 и более поздних версий) в Azure Stack HCI.

Примечание.

Динамическая миграция между Windows Server и Azure Local не поддерживается. Миграция сети из локальной среды Azure в Windows Server не поддерживается.

  1. Временно отключите динамическую миграцию на целевом узле Azure Local.
  2. Выберите виртуальные машины и все узлы служб>, а затем выберите исходный узел Hyper-V, из которого требуется перенести.
  3. Выберите виртуальную машину, которую требуется перенести. Виртуальная машина должна находиться в отключенном состоянии.
  4. Выберите "Перенести виртуальную машину".
  5. В выберите хост, просмотрите и выберите целевой хост Azure Local.
  6. Нажмите кнопку "Далее ", чтобы инициировать миграцию сети. VMM выполнит импорт и экспорт в серверной части.
  7. Чтобы убедиться, что виртуальная машина успешно перенесена, проверьте список виртуальных машин на конечном узле. Включите виртуальную машину и включите динамическую миграцию на локальном узле Azure.

Шаг 9. Перенос рабочих нагрузок VMware в локальный экземпляр Azure с помощью SCVMM

VMM предоставляет простой интерфейс на основе мастера для преобразования V2V (virtual to Virtual) (Virtual to Virtual). Средство преобразования можно использовать для переноса рабочих нагрузок в масштабе от инфраструктуры VMware к инфраструктуре Hyper-V. Список поддерживаемых серверов VMware см. в разделе "Требования к системе".

Предварительные требования и ограничения для преобразования см. в статье "Преобразование виртуальной машины VMware в Hyper-V" в структуре VMM.

  1. Создайте учетную запись запуска от имени для роли администратора сервера vCenter Server в VMM. Эти учетные данные администратора используются для управления сервером vCenter и узлами ESXi. Снимок экрана: страница создания учетной записи запуска от имени.

  2. В консоли VMM в разделе Fabric выберите "Серверы> Снимок экрана: добавление параметра VMware vCenter.

  3. На странице "Добавить VMware vCenter Server" сделайте следующее:

    1. Имя компьютера: укажите имя сервера vCenter.

    2. Учетная запись запуска от имени: выберите учетную запись запуска от имени, созданную для администратора vSphere.

      Снимок экрана: сведения о сервере.

  4. Выберите Готово.

  5. На странице импорта сертификата выберите "Импорт".

    Снимок экрана: параметр импорта сертификатов.

  6. После успешного добавления сервера vCenter все узлы ESXi в vCenter переносятся в VMM.

Добавление узлов

  1. В консоли VMM в разделе Fabric выберите "Серверы>
    Снимок экрана: параметр
  2. В мастере добавления ресурсов
    1. В разделе "Учетные данные" выберите учетную запись запуска от имени, используемую для порта, и нажмите кнопку "Далее".

      Снимок экрана: вкладка учетных данных.

    2. В разделе "Целевые ресурсы" выберите все кластеры ESX, которые необходимо добавить в VMM, и нажмите кнопку "Далее". Снимок экрана: вкладка целевых ресурсов.

    3. В разделе "Параметры узла" выберите расположение для добавления виртуальных машин и нажмите кнопку "Далее". Снимок экрана: вкладка

    4. В разделе " Сводка" просмотрите параметры и нажмите кнопку "Готово". Вместе с узлами связанные виртуальные машины также будут добавлены.

      Снимок экрана: вкладка сводки.

Проверка состояния узла ESXi

  1. Если состояние узла ESXi отражается как ОК (Ограничено), щелкните правой кнопкой мыши управление свойствами>, выберите учетную запись запуска от имени, используемую для порта, и импортируйте сертификаты для узла.
    Повторите один и тот же процесс для всех узлов ESXi.

    Снимок экрана: вкладка

После добавления кластеров ESXi все виртуальные машины, работающие в кластерах ESXi, автоматически обнаруживаются в VMM.

Просмотр виртуальных машин

  1. Перейдите к виртуальным машинам и службам , чтобы просмотреть виртуальные машины. Вы также можете управлять основными операциями жизненного цикла этих виртуальных машин из VMM.
    Снимок экрана: узлы ESXi.

  2. Щелкните правой кнопкой мыши виртуальную машину и выберите Power Off (миграции через Интернет не поддерживаются), которые необходимо перенести и удалить средства VMware из гостевой операционной системы.

  3. Выберите >> Конверт виртуальной машины.

  4. В мастере преобразования виртуальных машин

    1. В разделе "Выбор источника" выберите виртуальную машину, запущенную на сервере ESXi, и нажмите кнопку "Далее". Снимок экрана: выбор параметра источника.
    2. В разделе "Указать удостоверение виртуальной машины" введите новое имя виртуальной машины, если вы хотите и нажмите кнопку "Далее".
      Снимок экрана: параметр имени виртуальной машины.
  5. В разделе Выбор узлавыберите целевой локальный компьютер Azure и укажите расположение на узле для файлов хранилища виртуальных машин и выберите Далее.

    Снимок экрана: выбор параметра узла.

  6. Выберите виртуальную сеть для виртуальной машины и нажмите кнопку "Создать ", чтобы завершить миграцию.
    Виртуальная машина, запущенная в кластере ESXi, успешно перенесена в локальный экземпляр Azure. Для автоматизации используйте команды PowerShell для преобразования.

Следующие шаги