다음을 통해 공유


자습서: Azure VM(Virtual Machines)에 WebSphere Application Server 네트워크 배포(기존)를 수동으로 설치

이 자습서에서는 기존의 IBM WAS(WebSphere Application Server) ND(네트워크 배포)를 설치하고 GNU/Linux의 Azure VM(Virtual Machines)에서 WAS 클러스터를 구성하는 방법을 보여 줍니다.

이 자습서에서는 다음을 하는 방법을 알아볼 수 있습니다.

  • 사용자 지정 가상 네트워크를 만들고 네트워크 내에서 VM을 만듭니다.
  • 그래픽 인터페이스를 사용하여 VM에 기존 WebSphere 애플리케이션 서버 네트워크 배포(V9 또는 V8.5)를 수동으로 설치합니다.
  • 프로필 관리 도구를 사용하여 WAS 클러스터를 구성합니다.
  • 클러스터에서 Java EE(Java Platform Enterprise Edition) 애플리케이션을 배포하고 실행합니다.
  • Azure 애플리케이션 Gateway를 통해 공용 인터넷에 애플리케이션을 노출합니다.
  • 성공적인 구성의 유효성을 검사합니다.

Azure Portal에서 직접 GNU/Linux VM을 대신하여 이러한 모든 단계를 수행하는 완전히 자동화된 솔루션을 선호하는 경우 빠른 시작: Azure Virtual Machines에 WebSphere 애플리케이션 서버 네트워크 배포 클러스터 배포를 참조 하세요. 덜 자동화되었지만 여전히 가속화된 옵션은 미리 구성된 Red Hat Linux 기본 이미지를 사용하여 운영 체제에 JDK(Java Development Kit) 및 WebSphere를 설치하는 단계를 건너뛰는 것입니다. WebSphere 애플리케이션 서버 이미지 9.0.5.x에 대한 쿼리를 사용하여 Azure Marketplace에서 이러한 제품을 찾을 수 있습니다.

Azure 솔루션에서 WebSphere를 개발하는 엔지니어링 팀과 마이그레이션 시나리오를 긴밀히 작업하려는 경우 WebSphere 마이그레이션에 대한 이 짧은 설문 조사를 작성하고 연락처 정보를 포함합니다. 긴밀한 공동 작업을 시작할 수 있도록 프로그램 관리자, 설계자 및 엔지니어 팀이 즉시 연락드립니다.

필수 구성 요소

  • Azure 구독 Azure 구독이 아직 없는 경우 시작하기 전에 체험 계정을 만듭니다.
  • Azure CLI 버전 2.46.0 이상을 설치하여 Azure CLI 명령을 실행합니다.
    • 이 문서에서는 Windows PowerShell 또는 UNIX Bash에서 Azure CLI 명령을 호출하기 위한 지침을 제공합니다. 어느 쪽이든 Azure CLI를 설치해야 합니다.
    • 메시지가 표시되면 처음 사용할 때 Azure CLI 확장을 설치합니다. 확장에 대한 자세한 내용은 Azure CLI로 확장 사용 및 관리를 참조하세요.
    • az version을 실행하여 설치된 버전과 종속 라이브러리를 찾습니다. 최신 버전으로 업그레이드하려면 az upgrade를 실행합니다.
  • IBMid가 있어야 합니다. IBM 계정이 없는 경우 IBM에 로그인할 때 IBM 계정을 만들고 IBMid 만들기를 선택합니다. IBMid 암호 및 전자 메일을 기록해 둡다.
    • IBM WebSphere 애플리케이션 서버 네트워크 배포 버전 8.5.5를 사용하려는 경우 이 IBMid는 해당 버전의 소프트웨어를 사용할 자격이 있어야 합니다. 자격에 대해 알아보려면 IBM Passport Advantage 사이트에 대한 기본 또는 보조 연락처에 액세스 권한을 부여하도록 요청하거나 IBM eCustomer Care의 단계를 따르세요.

환경 준비

이 섹션에서는 IBM 설치 관리자 및 WebSphere 애플리케이션 서버 네트워크 배포를 기존에 설치하는 인프라를 설정합니다.

가정

이 자습서에서는 총 3개의 VM에 배포 관리자와 관리되는 서버 2개가 있는 WAS 클러스터를 구성합니다. 클러스터를 구성하려면 동일한 가용성 집합 내에 다음 세 개의 Azure VM을 만들어야 합니다.

  • 관리자 VM(VM 이름 adminVM)에 배포 관리자가 실행되고 있습니다.
  • 관리되는 VM(VM 이름 mspVM1mspVM2)에는 두 개의 관리되는 서버가 실행됩니다.

Azure에 로그인

아직 로그인하지 않은 경우 az login 명령을 사용하여 Azure 구독에 로그인하고 화면의 지침을 따릅니다.

az login

참고 항목

여러 Azure 테넌트가 Azure 자격 증명과 연결된 경우 로그인할 테넌트를 지정해야 합니다. --tenant 옵션을 사용하여 이 작업을 수행할 수 있습니다. 예: az login --tenant contoso.onmicrosoft.com

리소스 그룹 만들기

az group create를 사용하여 리소스 그룹을 만듭니다. 리소스 그룹 이름은 구독 내에서 전역적으로 고유해야 합니다. 따라서 고유해야 하는 이름을 만드는 이름 앞에 고유 식별자를 추가하는 것이 좋습니다. 유용한 방법은 이니셜을 사용하고 오늘 날짜를 형식으로 사용하는 것입니다 mmdd . 이 예제에서는 위치에 명명된 abc1110rg eastus 리소스 그룹을 만듭니다.

export RESOURCE_GROUP_NAME=abc1110rg
az group create --name $RESOURCE_GROUP_NAME --location eastus

가상 네트워크 만들기

참고 항목

기본적으로 이 섹션의 Azure CLI 명령은 달리 지정하지 않는 한 Bash 스타일을 따릅니다.

PowerShell에서 이러한 명령을 실행하는 경우 이전 명령에 표시된 대로 환경 매개 변수를 선언해야 합니다.

PowerShell에서 명령줄을 여러 줄로 나누려면 각 줄의 끝에 백틱 문자(')를 사용할 수 있습니다.

WebSphere 애플리케이션 서버 클러스터를 구성하는 리소스는 가상 네트워크를 사용하여 공용 인터넷과 통신해야 합니다. 가상 네트워크 계획에 대한 전체 가이드는 Azure 가이드 가상 네트워크 계획 클라우드 채택 프레임워크 참조하세요. 자세한 내용은 Azure Virtual Network 질문과 대답을 참조 하세요.

다음 단계를 사용하여 가상 네트워크를 만듭니다. 이 섹션의 예제에서는 주소 공간이 192.168.0.0/16 있는 가상 네트워크를 만들고 VM에 대한 서브넷을 만듭니다.

  1. az network vnet create를 사용하여 가상 네트워크를 만듭니다. 다음 예제에서는 다음과 같은 네트워크를 myVNet만듭니다.

    az network vnet create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myVNet \
        --address-prefixes 192.168.0.0/24
    
  2. az network vnet subnet create를 사용하여 WAS 클러스터에 대한 서브넷을 만듭니다. 다음 예제는 mySubnet이라는 서브넷을 만듭니다.

    az network vnet subnet create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mySubnet \
        --vnet-name myVNet \
        --address-prefixes 192.168.0.0/25
    
  3. az network vnet subnet create를 사용하여 Application Gateway용 서브넷을 만듭니다. 다음 예제는 wasGateway이라는 서브넷을 만듭니다.

    az network vnet subnet create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name wasGateway \
        --vnet-name myVNet \
        --address-prefixes 192.168.0.128/25
    

가용성 집합 만들기

다음 예제와 같이 az vm availability-set create를 사용하여 가용성 집합을 만듭니다. 가용성 집합 만들기는 선택 사항이지만 만드는 것이 좋습니다. 자세한 내용은 Windows VM에 대한 Azure 인프라 연습 예제를 참조하세요.

az vm availability-set create \
    --resource-group $RESOURCE_GROUP_NAME \
    --name myAvailabilitySet \
    --platform-fault-domain-count 2 \
    --platform-update-domain-count 2

GNU/Linux에서 WAS 가져오기 또는 설치

다음 섹션에서는 GNU/Linux에서 WAS를 가져오거나 설치하는 단계를 설명합니다. 요구 사항에 따라 운영 체제 및 WAS 버전을 선택할 수 있지만 IBM WebSphere Application Server 네트워크 배포 설명서에서 사용할 수 있는지 확인해야 합니다.

WAS V9를 사용하려는 경우 지침은 지원되는 최신 버전의 소프트웨어가 포함된 Azure VM 이미지를 사용합니다. IBM과 Microsoft는 이미지를 유지 관리합니다. IBM과 Microsoft가 유지 관리하는 WAS 기본 이미지의 전체 목록은 Azure Marketplace를 참조 하세요.

IBM과 Microsoft는 권장되는 Red Hat Enterprise Linux 버전에 WAS V9가 미리 설치된 VM 기본 이미지를 유지 관리합니다. 이 이미지에 대한 자세한 내용은 Azure Portal을 참조하세요. 이 방법을 사용하는 경우 VM을 만드는 데 사용하는 Azure Marketplace 이미지는 다음과 같습니다 ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops:2021-04-27-twas-cluster-base-image:2021-04-27-twas-cluster-base-image:latest. 다음 명령을 사용하여 환경 변수에 이미지 이름을 저장합니다.

export VM_URN="ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops:2023-03-27-twas-cluster-base-image:2023-03-27-twas-cluster-base-image:latest"
$Env:VM_URN="ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops:2023-03-27-twas-cluster-base-image:2023-03-27-twas-cluster-base-image:latest"

Red Hat Enterprise Linux 머신 만들기

다음 단계를 사용하여 기본 VM을 만들고, 필요한 도구를 설치하고, 디스크의 스냅샷을 만들고, 해당 스냅샷을 기반으로 복제본을 만듭니다.

  1. az vm create를 사용하여 VM을 만듭니다. 이 VM에서 배포 관리자를 실행합니다.

    다음 예제에서는 인증에 사용자 이름/암호 쌍을 사용하여 Red Hat Enterprise Linux 머신을 만듭니다. 대신 더 안전한 TLS/SSL 인증을 사용하도록 선택할 수 있습니다.

    az vm create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name adminVM \
        --availability-set myAvailabilitySet \
        --image $VM_URN \
        --size Standard_DS1_v2  \
        --admin-username azureuser \
        --admin-password Secret123456 \
        --public-ip-address "" \
        --nsg ""
    
  2. 다음 명령을 사용하여 WAS 파일에 대한 새 디스크를 만들고 연결합니다.

    이 단계는 VM 기본 이미지를 사용할 때 이미 수행됩니다.

Windows VM 만들기 및 X 서버 설정

이 자습서에서는 WAS의 그래픽 인터페이스를 사용하여 설치 및 구성을 완료합니다. Windows VM을 점프 상자사용하고 X 창 시스템 서버를 실행하여 WAS 클러스터의 세 VM에서 그래픽 설치 관리자를 봅니다.

다음 단계를 사용하여 Windows 10 컴퓨터를 프로비전하고 X 서버를 설치합니다. Red Hat Enterprise Linux 컴퓨터와 동일한 네트워크 내에 Windows 머신이 이미 있는 경우 Azure에서 새 컴퓨터를 프로비전할 필요가 없습니다. X 서버를 설치하는 섹션으로 직접 갈 수 있습니다.

  1. 다음 단계를 사용하여 Azure Portal에서 Windows 10 VM을 만듭니다.

    1. Azure Portal에서 이전에 만든 리소스 그룹을 엽니다.
    2. 만들기를 선택하여 리소스를 만듭니다.
    3. 컴퓨팅을 선택하고 Windows 10검색한 다음 Microsoft Windows 10을 선택합니다.
    4. 원하는 계획을 선택한 다음 만들기를 선택합니다.
    5. 다음 값을 사용하여 VM을 구성합니다.
      • 가상 머신 이름: myWindowsVM
      • 이미지: Windows 10 Pro
      • 사용자 이름: azureuser
      • 암호: Secret123456
    6. 라이선스에서 확인란을 선택합니다.
    7. 검토 및 생성를 선택한 후 생성를 선택합니다.

    VM과 지원 리소스를 만드는 데 몇 분이 걸립니다.

    배포가 완료되면 X 서버를 설치하고 이를 사용하여 그래픽 인터페이스를 사용하여 Linux 컴퓨터에서 애플리케이션 서버를 구성합니다.

  2. 다음 단계를 사용하여 X 서버를 설치하고 시작합니다.

    1. 원격 데스크톱을 사용하여 .에 연결합니다 myWindowsVM. 자세한 가이드는 원격 데스크톱을 사용하여 연결하고 Windows를 실행하는 Azure 가상 머신에 로그온하는 방법을 참조하세요. 에 대한 이 섹션 myWindowsVM의 나머지 단계를 실행해야 합니다.
    2. VcXsrv Windows X Server를 다운로드하고 설치합니다.
    3. 방화벽을 사용하지 않도록 설정합니다. Linux VM의 통신을 허용하려면 다음 단계를 사용하여 Windows Defender 방화벽을 해제합니다.
      1. Windows Defender 방화벽을 검색하여 엽니다.
      2. Windows Defender 방화벽 설정 또는 해제를 찾은 다음, 프라이빗 네트워크 설정에서 끄기를 선택합니다. 공용 네트워크 설정은 그대로 둘 수 있습니다.
      3. 확인을 선택합니다.
      4. Windows Defender 방화벽 설정 패널을 닫습니다.
    4. 바탕 화면에서 X-Launch를 선택합니다.
    5. 표시 설정의 경우 표시 번호를 -1로 설정하여 여러 창을 사용한 다음을 선택합니다.
    6. 클라이언트를 시작하는 방법을 선택하려면 클라이언트 시작 안 을 선택한 다음 다음을 선택합니다.
    7. 추가 설정을 위해 클립보드 및 기본 선택 영역, 네이티브 열기를 선택하고 액세스 제어를 사용하지 않도록 설정합니다.
    8. 다음을 선택하여 완료합니다.

    "VcXsrv windows X-server가 이러한 네트워크에서 통신하도록 허용"이라는 메시지와 함께 Windows 보안 경고 대화 상자가 나타날 수 있습니다. 액세스 허용을 선택합니다.

이제 Red Hat Enterprise Linux 머신에 연결하고 그래픽 인터페이스를 사용하여 필요한 도구를 설치할 준비가 되었습니다. 다음 섹션에서는 IBM 설치 관리자 및 WebSphere 애플리케이션 서버 네트워크 배포를 기존의 설치하도록 안내합니다. 설치 및 구성에 사용합니다 myWindowsVM .

종속성 설치

다음 단계를 사용하여 X 서버에서 연결을 허용하고 그래픽 설치를 사용하도록 설정하는 데 필요한 종속성을 설치합니다.

  1. 다음 단계를 사용하여 다음의 adminVM개인 IP 주소를 가져옵니다.

    1. Azure Portal에서 이전에 만든 리소스 그룹을 선택합니다.
    2. 리소스 목록에서 .를 선택합니다 adminVM.
    3. 개요 창에서 속성을 선택합니다.
    4. 네트워킹 섹션에서 개인 IP 주소의 값을 복사합니다. 이 예제에서 값은 .입니다 192.168.0.4.
  2. 다음 예제와 myWindowsVM같이 명령 프롬프트를 adminVM 열고 다음 예제와 같이 를 사용하여 ssh연결합니다.

    set ADMINVM_IP="192.168.0.4"
    ssh azureuser@%ADMINVM_IP%
    
  3. 암호 Secret123456을 입력합니다.

  4. 다음 명령을 사용하여 사용자로 전환합니다 root . 이 자습서에서는 사용자와 함께 모든 도구를 설치합니다 root .

    sudo su -
    
  5. 다음 명령을 사용하여 종속성을 설치합니다.

    # dependencies for X server access
    yum install -y libXtst libSM libXrender
    
    # dependencies for GUI installation
    yum install -y gtk2 libXtst xorg-x11-fonts-Type1 mesa-libGL
    

나중에 데이터 디스크 adminVM를 계속 탑재하므로 이 터미널을 열어 두세요.

데이터 디스크 탑재

이 단계는 VM 기본 이미지를 사용할 때 이미 수행됩니다.

기존 WebSphere 애플리케이션 서버 네트워크 배포 설치

기본 이미지를 사용하는 경우 WebSphere 애플리케이션 서버 네트워크 배포는 이미 /datadrive/IBM/WebSphere/ND/V9 디렉터리에 설치되어 있습니다.

관리되는 서버용 머신 만들기

배포 관리자를 실행하는 WebSphere 애플리케이션 서버 네트워크 배포 adminVM를 설치했습니다. 관리되는 두 서버를 실행하기 위해 컴퓨터를 준비해야 합니다. 다음으로, 디스크에서 스냅샷을 adminVM 만들고 관리되는 심각도 및 에 대한 머신을 준비합니다 mspVM1 mspVM2.

이 섹션에서는 스냅샷 adminVM을 사용하여 컴퓨터를 준비하는 방법을 소개합니다. Azure CLI에 로그인한 터미널로 돌아가서 다음 단계를 사용합니다. 이 터미널은 Windows 점프 상자가 아닙니다.

  1. 다음 명령을 사용하여 중지 adminVM합니다.

    # export RESOURCE_GROUP_NAME=abc1110rg
    az vm stop --resource-group $RESOURCE_GROUP_NAME --name adminVM
    
  2. az snapshot create를 사용하여 OS 디스크의 스냅샷을 adminVM 만듭니다.

    export ADMIN_OS_DISK_ID=$(az vm show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name adminVM \
        --query storageProfile.osDisk.managedDisk.id \
        --output tsv)
    az snapshot create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAdminOSDiskSnapshot \
        --source $ADMIN_OS_DISK_ID
    
  3. az snapshot create를 사용하여 데이터 디스크의 스냅샷을 adminVM 만듭니다.

    export ADMIN_DATA_DISK_ID=$(az vm show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name adminVM \
        --query 'storageProfile.dataDisks[0].managedDisk.id' \
        --output tsv)
    az snapshot create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAdminDataDiskSnapshot \
        --source $ADMIN_DATA_DISK_ID
    
  4. 다음 명령을 사용하여 나중에 사용하는 스냅샷 ID를 쿼리합니다.

    # Get the snapshot ID.
    export OS_SNAPSHOT_ID=$(az snapshot show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAdminOSDiskSnapshot \
        --query '[id]' \
        --output tsv)
    export DATA_SNAPSHOT_ID=$(az snapshot show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAdminDataDiskSnapshot \
        --query '[id]' \
        --output tsv)
    

다음으로, 만들고 mspVM1 .mspVM2

mspVM1 만들기

다음 단계를 사용하여 만듭니다 mspVM1.

  1. az disk mspVM1 create를 사용하여 OS 디스크를 만듭니다.

    # Create a new managed disk by using the OS snapshot ID.
    # Note that the managed disk is created in the same location as the snapshot.
    az disk create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1_OsDisk_1 \
        --source $OS_SNAPSHOT_ID
    
  2. 다음 명령을 사용하여 OS 디스크mspVM1_OsDisk_1mspVM1 연결하여 VM을 만듭니다.

    # Get the resource ID of the managed disk.
    export MSPVM1_OS_DISK_ID=$(az disk show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1_OsDisk_1 \
        --query '[id]' \
        --output tsv)
    
    # Create the VM by attaching the existing managed disk as an OS.
    az vm create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1 \
        --attach-os-disk $MSPVM1_OS_DISK_ID \
        --plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops \
        --plan-product 2023-03-27-twas-cluster-base-image \
        --plan-name 2023-03-27-twas-cluster-base-image \
        --os-type linux \
        --availability-set myAvailabilitySet \
        --public-ip-address "" \
        --nsg ""
    
    # Create the VM by attaching the existing managed disk as an OS.
    # For `public-ip-address` and `nsg`, be sure to wrap the value "" in '' in PowerShell.
    az vm create `
        --resource-group $Env:RESOURCE_GROUP_NAME `
        --name mspVM1 `
        --attach-os-disk $Env:MSPVM1_OS_DISK_ID `
        --plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops `
        --plan-product 2023-03-27-twas-cluster-base-image `
        --plan-name 2023-03-27-twas-cluster-base-image `
        --os-type linux `
        --availability-set myAvailabilitySet `
        --public-ip-address '""' `
        --nsg '""'
    
  3. 데이터 디스크 스냅샷에서 관리 디스크를 만들고 다음 대상에 mspVM1연결합니다.

    az disk create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1_Data_Disk_1 \
        --source $DATA_SNAPSHOT_ID
    
    export MSPVM1_DATA_DISK_ID=$(az disk show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1_Data_Disk_1 \
        --query '[id]' \
        --output tsv)
    
    az vm disk attach \
        --resource-group $RESOURCE_GROUP_NAME \
        --vm-name mspVM1 \
        --name $MSPVM1_DATA_DISK_ID
    
  4. WAS를 설치하여 만들었습니다 mspVM1 . 디스크의 스냅샷에서 VM을 adminVM 만들었으므로 두 VM의 호스트 이름이 동일합니다. az vm run-command invoke를 사용하여 호스트 이름을 값mspVM1으로 변경합니다.

    az vm run-command invoke \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1 \
        --command-id RunShellScript \
        --scripts "sudo hostnamectl set-hostname mspVM1"
    

    명령이 성공적으로 완료되면 다음 예제와 유사한 출력이 표시됩니다.

    {
        "value": [
            {
            "code": "ProvisioningState/succeeded",
            "displayStatus": "Provisioning succeeded",
            "level": "Info",
            "message": "Enable succeeded: \n[stdout]\n\n[stderr]\n",
            "time": null
            }
        ]
    }
    

mspVM2 만들기

다음 단계를 사용하여 만듭니다 mspVM2.

  1. az disk mspVM2 create를 사용하여 OS 디스크를 만듭니다.

    # Create a new managed disk by using the OS snapshot ID.
    # Note that the managed disk is created in the same location as the snapshot.
    az disk create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2_OsDisk_1 \
        --source $OS_SNAPSHOT_ID
    
  2. 다음 명령을 사용하여 OS 디스크mspVM2_OsDisk_1mspVM2 연결하여 VM을 만듭니다.

    # Get the resource ID of the managed disk.
    export MSPVM2_OS_DISK_ID=$(az disk show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2_OsDisk_1 \
        --query '[id]' \
        --output tsv)
    
    # Create the VM by attaching the existing managed disk as an OS.
    az vm create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2 \
        --attach-os-disk $MSPVM2_OS_DISK_ID \
        --plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops \
        --plan-product 2023-03-27-twas-cluster-base-image \
        --plan-name 2023-03-27-twas-cluster-base-image \
        --os-type linux \
        --availability-set myAvailabilitySet \
        --public-ip-address "" \
        --nsg ""
    
    # Create the VM by attaching the existing managed disk as an OS.
    # For `public-ip-address` and `nsg`, be sure to wrap the value "" in '' in PowerShell.
    az vm create `
        --resource-group $Env:RESOURCE_GROUP_NAME `
        --name mspVM2 `
        --attach-os-disk $Env:MSPVM2_OS_DISK_ID `
        --plan-publisher ibm-usa-ny-armonk-hq-6275750-ibmcloud-aiops `
        --plan-product 2023-03-27-twas-cluster-base-image `
        --plan-name 2023-03-27-twas-cluster-base-image `
        --os-type linux `
        --availability-set myAvailabilitySet `
        --public-ip-address '""' `
        --nsg '""'
    
  3. 데이터 스냅샷에서 관리 디스크를 만들고 다음으로 연결합니다 mspVM2.

    az disk create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2_Data_Disk_1 \
        --source $DATA_SNAPSHOT_ID
    
    export MSPVM2_DATA_DISK_ID=$(az disk show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2_Data_Disk_1 \
        --query '[id]' \
        --output tsv)
    
    az vm disk attach \
        --resource-group $RESOURCE_GROUP_NAME \
        --vm-name mspVM2 \
        --name $MSPVM2_DATA_DISK_ID
    
  4. WAS를 설치하여 만들었습니다 mspVM2 . 디스크의 스냅샷에서 VM을 adminVM 만들었으므로 두 VM의 호스트 이름이 동일합니다. az vm run-command invoke를 사용하여 호스트 이름을 값mspVM2으로 변경합니다.

    az vm run-command invoke \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2 \
        --command-id RunShellScript \
        --scripts "sudo hostnamectl set-hostname mspVM2"
    

    명령이 성공적으로 완료되면 다음 예제와 유사한 출력이 표시됩니다.

    {
        "value": [
            {
            "code": "ProvisioningState/succeeded",
            "displayStatus": "Provisioning succeeded",
            "level": "Info",
            "message": "Enable succeeded: \n[stdout]\n\n[stderr]\n",
            "time": null
            }
        ]
    }
    

둘 다 mspVM1 mspVM2에 대해 이전 단계를 완료했는지 확인합니다. 그런 다음, 다음 단계를 사용하여 컴퓨터 준비를 완료합니다.

  1. 다음 예제와 같이 az vm start 명령을 사용하여 시작adminVM합니다.

    az vm start --resource-group $RESOURCE_GROUP_NAME --name adminVM
    
  2. 다음 명령을 사용하여 이후 섹션에서 사용하는 개인 IP 주소를 가져와서 표시합니다.

    export ADMINVM_NIC_ID=$(az vm show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name adminVM \
        --query networkProfile.networkInterfaces'[0]'.id \
        --output tsv)
    export ADMINVM_IP=$(az network nic show \
        --ids $ADMINVM_NIC_ID \
        --query ipConfigurations'[0]'.privateIPAddress \
        --output tsv)
    export MSPVM1_NIC_ID=$(az vm show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM1 \
        --query networkProfile.networkInterfaces'[0]'.id \
        --output tsv)
    export MSPVM1_IP=$(az network nic show \
        --ids $MSPVM1_NIC_ID \
        --query ipConfigurations'[0]'.privateIPAddress \
        --output tsv)
    export MSPVM2_NIC_ID=$(az vm show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name mspVM2 \
        --query networkProfile.networkInterfaces'[0]'.id \
        --output tsv)
    export MSPVM2_IP=$(az network nic show \
        --ids $MSPVM2_NIC_ID \
        --query ipConfigurations'[0]'.privateIPAddress \
        --output tsv)
    echo "Private IP of adminVM: $ADMINVM_IP"
    echo "Private IP of mspVM1: $MSPVM1_IP"
    echo "Private IP of mspVM2: $MSPVM2_IP"
    

이제 세 대의 컴퓨터가 모두 준비되었습니다. 다음으로 WAS 클러스터를 구성합니다.

WAS 프로필 및 클러스터 만들기

이 섹션에서는 WAS 클러스터를 만들고 구성하는 방법을 보여줍니다. WAS 프로필 및 클러스터를 만드는 측면에서 9.x 시리즈와 8.5.x 시리즈 간에는 큰 차이가 없습니다. 이 섹션의 모든 스크린샷은 V9를 기준으로 표시합니다.

배포 관리자 프로필 구성

이 섹션에서는 X 서버를 myWindowsVM 사용하여 프로필 관리 도구를 사용하여 배포 관리자가 배포 관리자 셀 내에서 서버를 관리할 수 있는 관리 프로필을 만듭니다. 프로필에 대한 자세한 내용은 프로필 개념을 참조 하세요. 배포 관리자 프로필을 만드는 방법에 대한 자세한 내용은 배포 관리자를 사용하여 관리 프로필 만들기를 참조 하세요.

다음 단계를 사용하여 관리 프로필을 만들고 구성합니다.

  1. Windows 컴퓨터에 계속 있는지 확인합니다. 그렇지 않은 경우 다음 명령을 사용하여 원격으로 연결 myWindowsVM한 다음 명령 프롬프트에서 연결 adminVM 합니다.

    set ADMINVM_IP="192.168.0.4"
    ssh azureuser@%ADMINVM_IP%
    
  2. 다음 명령을 사용하여 사용자가 되고 root 변수를 DISPLAY 설정합니다.

    sudo su -
    
    export DISPLAY=<my-windows-vm-private-ip>:0.0
    # export DISPLAY=192.168.0.5:0.0
    
  3. 다음 명령을 사용하여 프로필 관리 도구를 시작합니다.

    cd /datadrive/IBM/WebSphere/ND/V9/bin/ProfileManagement
    ./pmt.sh
    
  4. 잠시 후 프로필 관리 도구가 나타납니다. 사용자 인터페이스가 표시되지 않으면 명령 프롬프트 뒤에 확인합니다. 만들기를 실행합니다.

    IBM 프로필 관리 도구의 스크린샷.

  5. 환경 선택 창에서 관리를 선택한 다음, 다음을 선택합니다.

    IBM 프로필 관리 도구의 환경 선택 창 스크린샷

  6. 서버 유형 선택 창에서 배포 관리자를 선택한 다음, 다음을 선택합니다.

    IBM 프로필 관리 도구의 서버 유형 선택 창 스크린샷

  7. 프로필 만들기 옵션 창에서 고급 프로필 만들기를 선택한 다음, 다음을 선택합니다.

    IBM 프로필 관리 도구의 프로필 만들기 옵션 창 스크린샷

  8. 선택적 애플리케이션 배포 창에서 관리 콘솔 배포(권장)가 선택되어 있는지 확인하고 다음을 선택합니다.

    IBM 프로필 관리 도구의 선택적 애플리케이션 배포 창 스크린샷

  9. 프로필 이름 및 위치 창에서 프로필 이름과 위치를 입력합니다. 이 예제에서 프로필 이름은 .입니다 Dmgr01. 위치는 WAS 버전에 따라 달라집니다.

    • WAS V9에서 위치는 /datadrive/IBM/WebSphere/ND/V9/profiles/Dmgr01입니다.
    • WAS V8.5에서 위치는 /datadrive/IBM/WebSphere/ND/V85/profiles/Dmgr01입니다.

    완료되면 다음을 선택합니다.

    IBM 프로필 관리 도구의 프로필 이름 및 위치 창 스크린샷

  10. 노드, 호스트 및 셀 이름 창에서 노드 이름, 호스트 이름 및 셀 이름을 입력합니다. 호스트는 .의 개인 IP 주소입니다 adminVM. 이 예제에서 노드 이름은 adminvmCellManager01호스트 값이고 192.168.0.4셀 이름은 다음과 같습니다 adminvmCell01. 완료되면 다음을 선택합니다.

    IBM 프로필 관리 도구의 노드, 호스트 및 셀 이름 창 스크린샷

  11. 관리 보안 창에서 관리자 사용자 이름 및 암호를 입력합니다. 이 예제에서는 사용자 이름이 websphere고 암호는 .입니다 Secret123456. IBM 콘솔에 로그인하는 데 사용할 수 있도록 사용자 이름 및 암호를 적어둡니다. 완료되면 다음을 선택합니다.

    IBM 프로필 관리 도구의 관리 보안 창 스크린샷

  12. 보안 인증서(1부)의 경우 인증서가 있는 경우 인증서를 입력합니다. 이 예제에서는 기본 자체 서명된 인증서를 사용합니다. 그런 후 다음을 선택합니다.

  13. 보안 인증서(2부)의 경우 인증서가 있는 경우 인증서를 입력합니다. 이 예제에서는 기본 자체 서명된 인증서를 사용합니다. 그런 후 다음을 선택합니다.

  14. 포트 값 할당 창에서 기본 포트를 유지하고 다음을 선택합니다.

    IBM 프로필 관리 도구의 포트 값 할당 창 스크린샷

  15. Linux 서비스 정의 창에서 Linux 서비스로 배포 관리자 프로세스 실행을 선택하지 마세요. 나중에 Linux 서비스를 만듭니다. 다음을 선택합니다.

  16. 프로필 만들기 요약 창에서 정보가 올바른지 확인한 다음 만들기를 선택합니다.

    IBM 프로필 관리 도구의 프로필 만들기 요약 창 스크린샷

  17. 프로필 만들기를 완료하는 데 시간이 걸립니다. 프로필 만들기 완료 창이 나타나면 첫 번째 단계 콘솔 시작을 선택합니다. 그런 다음, 마침을 선택합니다.

    IBM 프로필 관리 도구의 프로필 만들기 완료 창 스크린샷

  18. 첫 번째 단계 콘솔이 나타납니다. 설치 확인을 선택합니다.

    IBM 프로필 관리 도구의 첫 번째 단계 콘솔 스크린샷

  19. 확인 프로세스가 시작되고 다음 예제와 유사한 출력이 나타납니다. 오류가 있는 경우 계속 진행하기 전에 해결해야 합니다.

    IBM 프로필 관리 도구의 첫 번째 단계 콘솔 출력 스크린샷

  20. 배포 관리자 프로세스가 시작됩니다. 출력 창을 닫고 콘솔에서 종료를 선택하여 첫 번째 단계 콘솔을 닫을 수 있습니다.

    프로필 만들기를 완료했습니다. WebSphere 사용자 지정 도구 상자를 닫을 수 있습니다.

  21. IBM 콘솔에 액세스하려면 다음 명령을 사용하여 방화벽 포트를 엽니다.

    firewall-cmd --zone=public --add-port=9060/tcp --permanent
    firewall-cmd --zone=public --add-port=9043/tcp --permanent
    firewall-cmd --zone=public --add-port=9809/tcp --permanent
    firewall-cmd --zone=public --add-port=7277/tcp --permanent
    firewall-cmd --zone=public --add-port=9402/tcp --permanent
    firewall-cmd --zone=public --add-port=9403/tcp --permanent
    firewall-cmd --zone=public --add-port=9352/tcp --permanent
    firewall-cmd --zone=public --add-port=9632/tcp --permanent
    firewall-cmd --zone=public --add-port=9100/tcp --permanent
    firewall-cmd --zone=public --add-port=9401/tcp --permanent
    firewall-cmd --zone=public --add-port=8879/tcp --permanent
    firewall-cmd --zone=public --add-port=5555/tcp --permanent
    firewall-cmd --zone=public --add-port=7060/tcp --permanent
    firewall-cmd --zone=public --add-port=11005/udp --permanent
    firewall-cmd --zone=public --add-port=11006/tcp --permanent
    firewall-cmd --zone=public --add-port=9420/tcp --permanent
    
    firewall-cmd --reload
    
  22. 시작 시 배포 관리자를 자동으로 시작하려면 프로세스에 대한 Linux 서비스를 만듭니다. 다음 명령을 실행하여 Linux 서비스를 만듭니다.

    export PROFILE_PATH=/datadrive/IBM/WebSphere/ND/V9/profiles/Dmgr01
    
    # Configure SELinux so systemctl has access on server start/stop script files.
    semanage fcontext -a -t bin_t "${PROFILE_PATH}/bin(/.*)?"
    restorecon -r -v ${PROFILE_PATH}/bin
    
    # Add service.
    ${PROFILE_PATH}/bin/wasservice.sh -add adminvmCellManager01 -servername dmgr -profilePath ${PROFILE_PATH}
    
  23. 다음 출력이 표시되는지 확인합니다.

    CWSFU0013I: Service [adminvmCellManager01] added successfully.
    

    출력이 표시되지 않으면 계속하기 전에 문제를 해결하고 해결합니다.

배포 관리자가 실행 중입니다.adminVM 점프 상자 Windows VM에서 URL http://<admin-vm-private-ip>:9060/ibm/console/에서 IBM 콘솔에 액세스할 수 있습니다.

사용자 지정 프로필 구성

이 섹션에서는 X 서버를 사용하여 관리 mspVM1 되는 서버에 myWindowsVM 대한 사용자 지정 프로필을 만들고mspVM2.

Windows 컴퓨터에 계속 있는지 확인합니다. 그렇지 않은 경우 원격으로 연결합니다 myWindowsVM.

mspVM1에 대한 사용자 지정 프로필 구성

다음 단계를 사용하여 다음에 대한 사용자 지정 프로필을 구성합니다 mspVM1.

  1. 다음 명령을 사용하여 명령 프롬프트에서 연결 mspVM1 합니다.

    set MSPVM1VM_IP="192.168.0.6"
    ssh azureuser@%MSPVM1VM_IP%
    
  2. 다음 명령을 사용하여 사용자가 되고 root 변수를 DISPLAY 설정합니다.

    sudo su -
    
    export DISPLAY=<my-windows-vm-private-ip>:0.0
    # export DISPLAY=192.168.0.5:0.0
    
  3. 배포 관리자에 adminVM액세스하려면 다음 명령을 사용하여 방화벽 포트를 엽니다.

    firewall-cmd --zone=public --add-port=9080/tcp --permanent
    firewall-cmd --zone=public --add-port=9443/tcp --permanent
    firewall-cmd --zone=public --add-port=2809/tcp --permanent
    firewall-cmd --zone=public --add-port=9405/tcp --permanent
    firewall-cmd --zone=public --add-port=9406/tcp --permanent
    firewall-cmd --zone=public --add-port=9353/tcp --permanent
    firewall-cmd --zone=public --add-port=9633/tcp --permanent
    firewall-cmd --zone=public --add-port=5558/tcp --permanent
    firewall-cmd --zone=public --add-port=5578/tcp --permanent
    firewall-cmd --zone=public --add-port=9100/tcp --permanent
    firewall-cmd --zone=public --add-port=9404/tcp --permanent
    firewall-cmd --zone=public --add-port=7276/tcp --permanent
    firewall-cmd --zone=public --add-port=7286/tcp --permanent
    firewall-cmd --zone=public --add-port=5060/tcp --permanent
    firewall-cmd --zone=public --add-port=5061/tcp --permanent
    firewall-cmd --zone=public --add-port=8880/tcp --permanent
    firewall-cmd --zone=public --add-port=11003/udp --permanent
    firewall-cmd --zone=public --add-port=11004/tcp --permanent
    firewall-cmd --zone=public --add-port=2810/tcp --permanent
    firewall-cmd --zone=public --add-port=9201/tcp --permanent
    firewall-cmd --zone=public --add-port=9202/tcp --permanent
    firewall-cmd --zone=public --add-port=9354/tcp --permanent
    firewall-cmd --zone=public --add-port=9626/tcp --permanent
    firewall-cmd --zone=public --add-port=9629/tcp --permanent
    firewall-cmd --zone=public --add-port=7272/tcp --permanent
    firewall-cmd --zone=public --add-port=5001/tcp --permanent
    firewall-cmd --zone=public --add-port=5000/tcp --permanent
    firewall-cmd --zone=public --add-port=9900/tcp --permanent
    firewall-cmd --zone=public --add-port=9901/tcp --permanent
    firewall-cmd --zone=public --add-port=8878/tcp --permanent
    firewall-cmd --zone=public --add-port=7061/tcp --permanent
    firewall-cmd --zone=public --add-port=7062/tcp --permanent
    firewall-cmd --zone=public --add-port=11001/udp --permanent
    firewall-cmd --zone=public --add-port=11002/tcp --permanent
    firewall-cmd --zone=public --add-port=9809/tcp --permanent
    firewall-cmd --zone=public --add-port=9402/tcp --permanent
    firewall-cmd --zone=public --add-port=9403/tcp --permanent
    firewall-cmd --zone=public --add-port=9352/tcp --permanent
    firewall-cmd --zone=public --add-port=9632/tcp --permanent
    firewall-cmd --zone=public --add-port=9401/tcp --permanent
    firewall-cmd --zone=public --add-port=11005/udp --permanent
    firewall-cmd --zone=public --add-port=11006/tcp --permanent
    firewall-cmd --zone=public --add-port=8879/tcp --permanent
    firewall-cmd --zone=public --add-port=9060/tcp --permanent
    firewall-cmd --zone=public --add-port=9043/tcp --permanent
    
    firewall-cmd --reload
    
  4. 다음 명령을 사용하여 프로필 관리 도구를 시작합니다.

    cd /datadrive/IBM/WebSphere/ND/V9/bin/ProfileManagement
    ./pmt.sh
    
  5. 잠시 후 프로필 관리 도구가 나타납니다. 사용자 인터페이스가 표시되지 않으면 계속하기 전에 문제를 해결하고 해결합니다. 만들기를 실행합니다.

  6. 환경 선택 창에서 사용자 지정 프로필을 선택한 다음, 다음을 선택합니다.

    IBM 프로필 관리 도구의 환경 선택 창 스크린샷

  7. 프로필 만들기 옵션 창에서 고급 프로필 만들기를 선택한 다음, 다음을 선택합니다.

    IBM 프로필 관리 도구의 프로필 만들기 옵션 창 스크린샷

  8. 프로필 이름 및 위치 창에서 프로필 이름과 위치를 입력합니다. 이 예제에서 프로필 이름은 .입니다 Custom01. 위치는 WAS 버전에 따라 달라집니다.

    • WAS V9에서 위치는 /datadrive/IBM/WebSphere/ND/V9/profiles/Custom01입니다.
    • WAS V8.5에서 위치는 /datadrive/IBM/WebSphere/ND/V85/profiles/Custom01입니다.

    완료되면 다음을 선택합니다.

    IBM 프로필 관리 도구의 프로필 이름 및 위치 창 스크린샷

  9. 노드 및 호스트 이름 창에서 노드 이름 및 호스트를 입력합니다. 호스트의 값은 .의 mspVM1개인 IP 주소입니다. 이 예제에서 호스트는 192.168.0.6 노드 이름 mspvm1Node01입니다. 완료되면 다음을 선택합니다.

    IBM 프로필 관리 도구의 노드 및 호스트 이름 창 스크린샷

  10. 페더레이션 창에서 배포 관리자의 호스트 이름 및 인증을 입력합니다. 배포 관리자 호스트 이름 또는 IP 주소의 경우 값은 여기에 있는 개인 IP 주소입니다192.168.0.4.adminVM 배포 관리자 인증의 경우 이 예제에서 사용자 이름은 websphere 암호이고 암호는 다음과 같습니다Secret123456. 완료되면 다음을 선택합니다.

    IBM 프로필 관리 도구의 페더레이션 창 스크린샷

  11. 보안 인증서(1부)의 경우 인증서가 있는 경우 인증서를 입력합니다. 이 예제에서는 기본 자체 서명된 인증서를 사용합니다. 그런 후 다음을 선택합니다.

  12. 보안 인증서(2부)의 경우 인증서가 있는 경우 인증서를 입력합니다. 이 예제에서는 기본 자체 서명된 인증서를 사용합니다. 그런 후 다음을 선택합니다.

  13. 포트 값 할당 창에서 기본 포트를 유지하고 다음을 선택합니다.

    IBM 프로필 관리 도구의 포트 값 할당 창 스크린샷

  14. 프로필 만들기 요약 창에서 정보가 올바른지 확인한 다음 만들기를 선택합니다.

    IBM 프로필 관리 도구의 프로필 만들기 요약 창 스크린샷

  15. 사용자 지정 프로필을 만드는 데 시간이 걸립니다. 프로필 만들기 완료 창에서 첫 번째 단계 콘솔 시작 확인란의 선택을 취소합니다. 그런 다음 마침을 선택하여 프로필 만들기를 완료하고 프로필 관리 도구를 닫습니다.

    IBM 프로필 관리 도구의 프로필 만들기 완료 창 스크린샷

  16. 시작 시 서버를 자동으로 시작하려면 프로세스에 대한 Linux 서비스를 만듭니다. 다음 명령은 시작할 nodeagentLinux 서비스를 만듭니다.

    export PROFILE_PATH=/datadrive/IBM/WebSphere/ND/V9/profiles/Custom01
    
    # Configure SELinux so systemctl has access on server start/stop script files.
    semanage fcontext -a -t bin_t "${PROFILE_PATH}/bin(/.*)?"
    restorecon -r -v ${PROFILE_PATH}/bin
    
    # Add service to start nodeagent.
    ${PROFILE_PATH}/bin/wasservice.sh -add mspvm1Node01 -servername nodeagent -profilePath ${PROFILE_PATH}
    
  17. 다음 출력이 표시되는지 확인합니다.

    CWSFU0013I: Service [mspvm1Node01] added successfully.
    

    출력이 표시되지 않으면 계속하기 전에 문제를 해결하고 해결합니다.

사용자 지정 프로필을 nodeagent 만들고 .에서 실행했습니다 mspVM1. 사용자가 되는 것을 root 중지하고 SSH 연결을 닫습니다 mspVM1.

mspVM2에 대한 사용자 지정 프로필 구성

mspVM1에 대한 사용자 지정 프로필 구성 섹션의 시작 부분으로 돌아가서 동일한 단계를 수행합니다mspVM2. 즉, 사용 mspVM1 하거나 유사한 위치에 대해 동일한 mspVM2작업을 수행합니다.

노드 및 호스트 이름 창에서 노드 이름 및 192.168.0.7 호스트 이름을 입력 mspvm2Node01 합니다.

두 개의 관리되는 서버에 mspVM1 대한 사용자 지정 프로필을 준비했습니다 mspVM2. 계속해서 WAS 클러스터를 만듭니다.

클러스터 만들기 및 서버 시작

이 섹션에서는 IBM 콘솔을 사용하여 WAS 클러스터를 만들고 브라우저를 사용하여 관리되는 서버를 시작합니다 myWindowsVM. Windows 컴퓨터에 계속 있는지 확인합니다. 그렇지 않은 경우 원격으로 연결합니다 myWindowsVM. 그런 후 다음 단계를 사용하세요.

  1. Microsoft Edge 브라우저를 열고 .http://<adminvm-private-ip>:9060/ibm/console/ 이 예제에서 IBM 콘솔 URL은 .입니다 http://192.168.0.4:9060/ibm/console/. 로그인 창을 찾습니다. 관리 사용자 이름 및 암호(websphere/Secret123456)를 사용하여 IBM 콘솔에 로그인합니다. 이제 클러스터 및 서버를 관리할 수 있습니다.

    IBM 콘솔의 시작 정보 스크린샷.

  2. 탐색 창에서 서버>클러스터>WebSphere 애플리케이션 서버 클러스터를 선택합니다. 그런 다음 새로 만들기를 선택하여 새 클러스터를 만듭니다.

  3. 새 클러스터 만들기 대화 상자에서 1단계: 기본 클러스터 정보를 입력하고 클러스터 이름을 입력합니다. 이 예제에서 클러스터 이름은 .입니다 cluster1. 완료되면 다음을 선택합니다.

    IBM 콘솔에 기본 클러스터 정보를 입력하는 단계의 스크린샷.

  4. 2단계: 첫 번째 클러스터 멤버를 만들고, 멤버 이름을 입력하고, 노드mspvm1Node01를 선택합니다. 이 예제에서 멤버 이름은 .입니다 msp1. 노드는 WAS 버전에 따라 달라집니다.

    • WAS V9에서 노드는 .입니다 mspvm1Node01 (ND 9.0.5.12).
    • WAS V8.5에서 노드는 .입니다 mspvm1Node01 (ND 8.5.5.24).

    완료되면 다음을 선택합니다.

    IBM 콘솔에서 첫 번째 클러스터 멤버를 만드는 단계의 스크린샷

  5. 3단계: 추가 클러스터 멤버를 만들고, 두 번째 멤버 이름을 입력하고, 노드mspvm2Node01를 선택합니다. 이 예제에서 멤버 이름은 .입니다 msp2. 노드는 WAS 버전에 따라 달라집니다.

    • WAS V9에서 노드는 .입니다 mspvm2Node01 (ND 9.0.5.12).
    • WAS V8.5에서 노드는 .입니다 mspvm2Node01 (ND 8.5.5.24).
  6. 멤버 추가를 선택하여 두 번째 노드를 추가합니다. 테이블에는 두 멤버가 나열됩니다. 완료되면 다음을 선택합니다.

    IBM 콘솔에서 추가 클러스터 멤버를 만드는 단계의 스크린샷.

  7. 4단계: 요약에서 마침을 선택합니다.

    IBM 콘솔에서 클러스터를 만들기 위한 작업의 요약 스크린샷

    클러스터를 만드는 데 시간이 걸립니다. 클러스터를 만든 cluster1 후 테이블에 나타납니다.

  8. cluster1을 선택한 다음 검토를 선택하여 정보를 검토합니다.

    IBM 콘솔의 변경 내용을 검토하기 위한 링크의 스크린샷.

  9. 노드와 변경 내용 동기화를 선택한 다음 저장을 선택합니다.

    IBM 콘솔의 노드와 변경 내용을 동기화하기 위한 확인란의 스크린샷.

  10. 생성은 오류 없이 완료되어야 합니다. 계속하려면 확인을 선택합니다.

    동기화가 성공적으로 완료되었음을 보여 주는 IBM 콘솔의 스크린샷

  11. 테이블에서 cluster1을 선택한 다음 시작 단추를 선택하여 클러스터를 시작합니다.

    IBM 콘솔에서 새로 만든 클러스터를 시작하는 선택 항목의 스크린샷

  12. 두 개의 관리되는 서버를 시작하는 데 시간이 걸립니다. 상태 열에서 새로 고침 아이콘(서로를 가리키는 두 개의 화살표)을 선택하여 상태를 새로 고칩니다.

    새로 고침 아이콘을 마우스로 가리킵니다. 도구 설명에 Started가 표시되면 클러스터가 형성되었음을 신뢰할 수 있습니다. 도구 설명에 시작됨이 표시될 때까지 주기적으로 새로 고침하고 확인합니다.

  13. 다음 단계를 사용하여 노드 에이전트가 시작된 후 관리되는 서버를 자동으로 시작하도록 애플리케이션 서버 모니터링 정책 설정을 구성합니다.

    다음 단계를 사용하여 구성 msp1합니다.

    1. 탐색 창에서 서버를 선택하고 서버 유형을 선택한 다음 WebSphere 애플리케이션 서버를 선택합니다.

    2. 애플리케이션 서버에 msp1대한 하이퍼링크를 선택합니다.

    3. 서버 인프라 섹션에서 Java 및 프로세스 관리를 선택합니다.

    4. 모니터링 정책을 선택합니다.

    5. 자동 다시 시작이 선택되어 있는지 확인하고 노드 다시 시작 상태로 실행 중을 선택합니다. 확인을 선택합니다.

      모니터링 정책의 구성을 보여 주는 IBM 콘솔의 스크린샷

    6. 미들웨어 서비스 창으로 돌아갑니다. 메시지 패널에서 검토 링크를 선택한 다음, 변경 내용을 노드와 동기화를 선택합니다. 저장을 선택하여 변경 내용을 저장하고 동기화합니다.

    7. 다음 메시지가 나타납니다. The configuration synchronization complete for cell. 확인을 선택하여 구성을 종료합니다.

    다음 단계를 사용하여 구성 msp2합니다.

    1. 탐색 창에서 서버를 선택하고 서버 유형을 선택한 다음 WebSphere 애플리케이션 서버를 선택합니다.
    2. 애플리케이션 서버에 msp2대한 하이퍼링크를 선택합니다.
    3. 서버 인프라 섹션에서 Java 및 프로세스 관리를 선택합니다.
    4. 모니터링 정책을 선택합니다.
    5. 자동 다시 시작이 선택되어 있는지 확인하고 노드 다시 시작 상태로 실행 중을 선택합니다. 확인을 선택합니다.
    6. 미들웨어 서비스 창으로 돌아갑니다. 메시지 패널에서 검토 링크를 선택한 다음, 변경 내용을 노드와 동기화를 선택합니다. 저장을 선택하여 변경 내용을 저장하고 동기화합니다.
    7. 다음 메시지가 나타납니다. The configuration synchronization complete for cell. 확인을 선택하여 구성을 종료합니다.

두 개의 관리되는 서버 msp1 로 구성 cluster1 했습니다msp2. 클러스터가 실행되고 있습니다.

애플리케이션 배포

다음 단계를 사용하여 애플리케이션을 배포합니다.

  1. 이전에 로그인한 관리 콘솔에서 애플리케이션 새 애플리케이션을>선택한 다음, 새 엔터프라이즈 애플리케이션을 선택합니다.

  2. 다음 패널에서 원격 파일 시스템을 선택한 다음 찾아보기를 선택하여 설치된 서버의 파일 시스템을 탐색합니다.

  3. adminvm으로 시작하는 시스템을 선택합니다. VM의 파일 시스템이 나타납니다. 여기에서 V9(또는 V85)를 선택한 다음 installableApps를 선택합니다.

  4. 설치할 수 있는 애플리케이션 목록에서 DefaultApplication.ear를 선택합니다. 그런 다음 확인을 선택합니다.

  5. 애플리케이션을 선택하기 위해 패널로 돌아왔습니다. 다음을 선택합니다.

    업로드하고 설치할 모듈을 지정하는 IBM WebSphere 대화 상자의 스크린샷

  6. 새 애플리케이션 설치 워크플로의 나머지 모든 단계에 대해 다음선택합니다. 그런 다음, 마침을 선택합니다.

  7. 다음 메시지가 나타납니다. Application DefaultApplication.ear installed successfully. 이 메시지가 표시되지 않으면 계속하기 전에 문제를 해결하고 해결합니다.

  8. 마스터 구성 링크에 직접 저장을 선택합니다.

  9. 애플리케이션을 시작해야 합니다. 애플리케이션>모든 애플리케이션으로 이동합니다. DefaultApplication.ear 확인란을 선택하고, 작업이 시작으로 설정되어 있는지 확인한 다음, 작업 제출을 선택합니다.

  10. 모든 애플리케이션 테이블의 상태 열에서 새로 고침 아이콘을 선택합니다. 이러한 방식으로 테이블을 몇 번 새로 고치면 DefaultApplication.ear의 상태 열에 녹색 화살표가 나타납니다.

이제 애플리케이션이 WAS 클러스터에 설치됩니다.

Azure 애플리케이션 게이트웨이를 사용하여 WAS 노출

이제 GNU/Linux 가상 머신에서 WAS 클러스터 만들기를 마쳤으므로 이 섹션에서는 Azure 애플리케이션 Gateway를 사용하여 WAS를 인터넷에 노출하는 프로세스를 안내합니다.

Application Gateway 만들기

다음 단계를 사용하여 애플리케이션 게이트웨이를 만듭니다.

  1. WAS를 인터넷에 노출하려면 공용 IP 주소가 필요합니다. 다음 예제와 같이 Azure CLI가 설치된 셸에서 az network public-ip create를 사용하여 IP 주소를 만듭니다.

    az network public-ip create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAGPublicIPAddress \
        --allocation-method Static \
        --sku Standard
    
    export APPGATEWAY_IP=$(az network public-ip show \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAGPublicIPAddress \
        --query '[ipAddress]' \
        --output tsv)
    
  2. IP 주소와 연결할 애플리케이션 게이트웨이를 만듭니다. 다음 예제에서는 기본 백 엔드 풀에 WebSphere 관리 서버를 사용하여 애플리케이션 게이트웨이를 만듭니다.

    az network application-gateway create \
        --resource-group $RESOURCE_GROUP_NAME \
        --name myAppGateway \
        --public-ip-address myAGPublicIPAddress \
        --location eastus \
        --capacity 2 \
        --http-settings-port 80 \
        --http-settings-protocol Http \
        --frontend-port 80 \
        --sku Standard_V2 \
        --subnet wasGateway \
        --vnet-name myVNet \
        --priority 1001 \
        --servers ${MSPVM1_IP} ${MSPVM2_IP}
    
  3. 관리되는 서버는 포트 9080를 사용하여 워크로드를 노출합니다. 백 엔드 포트를 지정하고 해당 포트 9080 에 대한 프로브를 만들어 업데이트 appGatewayBackendHttpSettings 하려면 다음 명령을 사용합니다.

    az network application-gateway probe create \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --name clusterProbe \
        --protocol http \
        --host-name-from-http-settings true \
        --match-status-codes 404 \
        --path "/"
    
    az network application-gateway http-settings update \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --name appGatewayBackendHttpSettings \
        --host-name-from-backend-pool true \
        --port 9080 \
        --probe clusterProbe
    
  4. 다음 명령을 사용하여 리디렉션에 대한 다시 쓰기 규칙을 프로비전합니다.

    # Create a rewrite rule set.
    az network application-gateway rewrite-rule set create \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --name myRewriteRuleSet
    
    # Associated routing rules.
    az network application-gateway rule update \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --name rule1 \
        --rewrite-rule-set myRewriteRuleSet
    
    # Create a rewrite rule 1.
    az network application-gateway rewrite-rule create \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --rule-set-name myRewriteRuleSet \
        --name myRewriteRule01 \
        --sequence 100 \
        --response-headers Location=http://${APPGATEWAY_IP}{http_resp_Location_2}
    
    # Create a rewrite rule condition.
    az network application-gateway rewrite-rule condition create \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --rule-name myRewriteRule01 \
        --rule-set-name myRewriteRuleSet \
        --variable "http_resp_Location" \
        --ignore-case true \
        --negate false \
        --pattern "(https?):\/\/192.168.0.6:9080(.*)$"
    
    # Create a rewrite rule 2.
    az network application-gateway rewrite-rule create \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --rule-set-name myRewriteRuleSet \
        --name myRewriteRule02 \
        --sequence 100 \
        --response-headers Location=http://${APPGATEWAY_IP}{http_resp_Location_2}
    
    # Create a rewrite rule condition.
    az network application-gateway rewrite-rule condition create \
        --resource-group $RESOURCE_GROUP_NAME \
        --gateway-name myAppGateway \
        --rule-name myRewriteRule02 \
        --rule-set-name myRewriteRuleSet \
        --variable "http_resp_Location" \
        --ignore-case true \
        --negate false \
        --pattern "(https?):\/\/192.168.0.7:9080(.*)$"
    

이제 다음 명령이 생성하는 URL을 사용하여 애플리케이션에 액세스할 수 있습니다.

echo "http://${APPGATEWAY_IP}/snoop/"

참고 항목

이 예제에서는 HTTP를 사용하여 WAS 서버에 대한 간단한 액세스를 설정합니다. 보안 액세스를 원하는 경우 Application Gateway를 사용하여 엔드투엔드 TLS의 지침에 따라 TLS/SSL 종료를 구성합니다.

이 예제에서는 Application Gateway를 통해 IBM 콘솔을 노출하지 않습니다. IBM 콘솔에 액세스하려면 Windows 컴퓨터를 myWindowsVM 사용하거나 공용 IP 주소를 할당할 adminVM수 있습니다.

점프 상자를 myWindowsVM 사용하여 IBM 콘솔에 액세스하지 않고 공용 네트워크에 노출하려는 경우 다음 명령을 사용하여 공용 IP 주소를 할당합니다 adminVM.

# Create a public IP address.
az network public-ip create \
    --resource-group $RESOURCE_GROUP_NAME \
    --name myAdminVMPublicIPAddress \
    --allocation-method Static \
    --sku Standard

# Create a network security group.
az network nsg create \
    --resource-group $RESOURCE_GROUP_NAME \
    --name adminnsg

# Create an inbound rule for the network security group.
az network nsg rule create \
    --resource-group $RESOURCE_GROUP_NAME \
    --nsg-name adminnsg \
    --name ALLOW_IBM_CONSOLE \
    --access Allow \
    --direction Inbound \
    --source-address-prefixes '["*"]' \
    --destination-port-ranges 9043 \
    --protocol Tcp \
    --priority 500

# Update the network adapter with the network security group.
az network nic update \
    --resource-group $RESOURCE_GROUP_NAME \
    --name adminVMVMNic \
    --network-security-group adminnsg

# Update the network adapter with the public IP address.
az network nic ip-config update \
    --resource-group $RESOURCE_GROUP_NAME \
    --name ipconfigadminVM \
    --nic-name adminVMVMNic \
    --public-ip-address myAdminVMPublicIPAddress

export ADMIN_PUBLIC_IP=$(az network public-ip show \
    --resource-group $RESOURCE_GROUP_NAME \
    --name myAdminVMPublicIPAddress \
    --query '[ipAddress]' \
    --output tsv)

echo "IBM Console public URL: https://${ADMIN_PUBLIC_IP}:9043/ibm/console/"

WAS 클러스터 구성 테스트

WAS 클러스터를 구성하고 Java EE 애플리케이션을 배포했습니다. 애플리케이션에 액세스하여 모든 설정의 유효성을 검사하려면 다음 단계를 사용합니다.

  1. 웹 브라우저를 엽니다.
  2. URL http://<gateway-public-ip-address>/snoop/을 사용하여 애플리케이션으로 이동합니다.
  3. 브라우저를 지속적으로 새로 고치면 앱이 서버 인스턴스를 순환합니다. 호스트 요청 헤더의 값을 확인하고 여러 번 다시 로드한 후 변경됩니다.

리소스 정리

WAS 클러스터 구성을 완료했습니다. 다음 섹션에서는 만든 리소스를 제거하는 방법을 설명합니다.

Windows 컴퓨터 정리

다음 명령을 사용하여 Windows 컴퓨터를 myWindowsVM 제거할 수 있습니다. 또는 Windows 컴퓨터를 종료하고 지속적인 클러스터 유지 관리 작업을 위한 점프 상자로 계속 사용할 수 있습니다.

export WINDOWSVM_NIC_ID=$(az vm show \
    --resource-group ${RESOURCE_GROUP_NAME} \
    --name myWindowsVM \
    --query networkProfile.networkInterfaces[0].id \
    --output tsv)
export WINDOWSVM_NSG_ID=$(az network nic show \
    --ids ${WINDOWSVM_NIC_ID} \
    --query networkSecurityGroup.id \
    --output tsv)
export WINDOWSVM_DISK_ID=$(az vm show \
    --resource-group ${RESOURCE_GROUP_NAME} \
    --name myWindowsVM \
    --query storageProfile.osDisk.managedDisk.id \
    --output tsv)
export WINDOWSVM_PUBLIC_IP=$(az network public-ip list \
    -g ${RESOURCE_GROUP_NAME} --query [0].id \
    --output tsv)

echo "deleting myWindowsVM"
az vm delete --resource-group ${RESOURCE_GROUP_NAME} --name myWindowsVM --yes
echo "deleting nic ${WINDOWSVM_NIC_ID}"
az network nic delete --ids ${WINDOWSVM_NIC_ID}
echo "deleting public-ip ${WINDOWSVM_PUBLIC_IP}"
az network public-ip delete --ids ${WINDOWSVM_PUBLIC_IP}
echo "deleting disk ${WINDOWSVM_DISK_ID}"
az disk delete --yes --ids ${WINDOWSVM_DISK_ID}
echo "deleting nsg ${WINDOWSVM_NSG_ID}"
az network nsg delete --ids ${WINDOWSVM_NSG_ID}

모든 리소스 정리

다음 명령을 사용하여 삭제 abc1110rg 합니다.

az group delete --name $RESOURCE_GROUP_NAME --yes --no-wait

다음 단계

Azure에서 WebSphere 제품을 실행하는 옵션을 살펴보려면 Azure 에서 WebSphere 제품군을 실행하는 솔루션은 무엇인가요?