윈도우서버와 시스템센터 기술 정보 - 003
첫번째이야기 – 4가지종류의 Self-service portal(SSP) by Microsoft
Self-service portal은 가상화 환경이 클라우드로 발전하기 위한 핵심 요소의 하나로 꼽고 있습니다.
가상화가 되면서 데이터센터 직원이 관리 부담이 늘어나게 되지만, self-service portal로 데이터센터의 업무를 획기적으로 줄일 수 있고,
비즈니스에서 self-service portal을 통해 신속하게 자신이 원하는 Resource를 받게 되는 것이지요.
MS에서는 Self-service portal이 4개나 됩니다. 간단히 설명해 볼까요.
- SCVMM SSP 1.0 – 이 SSP는 SCVMM 2008에 이어 SCVMM 2012에도 포함되며 특별히 기능의 확대는 없습니다. 주로 dev/test 용도의 간단한 SSP로 매핑하고 있습니다. 사실을 이 SSP는 호환성 이슈 때문에 2012에 포함되는 것이라네요. 기능을 개선하면 사람들이 계속 쓸까봐 기능 개선없이 유지만 하고 있다고 합니다.
- SCVMM SSP 2.0 SP1 – 이 SSP는 SCVMM 개발팀과 별도의 조직이 개발하고요, 예전의 DDTK for enterprise가 개명된 SSP입니다. 간단하지만, 비즈니스 IT와 데이터센터간의 승인절차, 빌링등을 포함한 SSP입니다. 기초적인 Private Cloud를 구축할 때 사용되는 기능들이 포함되어 있는 SSP로 생각하시면 됩니다.
- DDTK(Dynamic Data Center Toolkit) for Hosters – 이는 앞선 제품 2개와는 다르게 즉시 사용할 수 있는 제품이 아니라 파트너나 고객이 자신의 환경에 맞게 SSP를 구축할 수 있도록 제공하는 툴킷입니다. SSP 2.0이 SCVMM 기능만을 SSP에 사용할 수 있는 것과 달리, SCOM, SCCM, SCDPM등의 기능까지도 SSP에 넣을 수 있습니다. 이름에서도 아실 수 있듯이, 호스팅 서비스를 제공하는 업체가 사용할 만한 SSP입니다.
- System Cneter App Controller – 이 제품은 VMWare의 vCloud Director와 대응하기 위한 제품으로 Private과 Public을 동시에 관리하는 Hybrid Cloud 관리툴로 생각하시면 될 것 같습니다. 이 제품은 System Center 2012에 포함되어 출시되며 앞서 언급된 SCVMM SSP 2.0. SP1을 대신하는 역할을 수행하는 사용자 포털 제품으로 역할을 하게 될 것입니다.
세번째이야기 – MS RDS 및 VDI환경에서의 Single Sign-on
도메인에 사용자는 도메인에 있을 때 도메인에 조인된 RD Gateway와 RDSH에 아무런 패스워드 입력하지 않고 접근할 수 있습니다.
아래 링크는 TS(Terminal Service) 버전의 이야기 이지만, 동일한 사항이므로 참고하실 수 있습니다.
하지만 외부에서 RD Web Access를 이용하면 Web에서 인증을 거친 후에 더 이상 인증을 하지 않는Web SSO을 할 수 있습니다.
Windows Server 2008 R2의 RD Web Access가 되면서 예전 Windows Server 2008의 TS Web Access에서 불가능하던 Web SSO이 가능해 집니다.
즉, RDC 7.0부터 가능한거지요.
아, 근데 제약 사항이 좀 눈에 뜁니다.
1) RD Web
Access를 통해 web SSO 환경을 구현할 수 있지만, VDI 시나리오(RDVH)에서는 해당 안 됩니다. Win8에서는 적용 예정이라고 합니다.
2) RD Web
Access를 통해 RemoteApp은 web SSO이 되지만, Full desktop RDP는 SSO이 되지 않습니다.(by design)
네번째 이야기 – NLB(Network Load Balancing)
보통 비즈니스에 중요한 웹사이트를 구축할 때, 고가용성을 생각하고 많이들 Layer 4이상의 비싼 장비를 도입합니다.
또한, L4 스위치가 죽을 수 있기 때문에 고가용성을 위해 2대를 구매하지요.
실상인즉, 웹 트래픽이 정말 많아서 로드밸런싱을 하는 곳은 그렇게 많지 않습니다.
Windows Server 2008에 기본으로 들어 있는 NLB는 이런 비싼 투자를 필요로 하지 않게 할 수 있습니다.
하지만, 서버 뿐만 아니라 L2 네트워크에 대한 이해와 L2 스위치에 대한 이해도가 필요하기 때문에,
NLB가 많이 사용되지 않는 것 같습니다. 하지만, NLB는 대규모 트래픽(아마도 수백메가)이 아닌 곳에 비용 효율적으로 딱 적당한 솔루션이라고 생각합니다.
또한, Hyper-V에서도 동작하기 때문에 고객들에게 좋은 밸류가 있을 것이라고 생각합니다.
시간이 나면 Hyper-V상의 NLB에 대한 reference 문서를 만들어서 배포하고자 합니다.
아래는 기본적인 사항인데 시간 나시면 보시기 바랍니다. L2 네트워크에 대한 지식이 없다면 이해하기가 용이하지는 않을 듯 합니다.
https://blogs.technet.com/b/networking/archive/2008/05/15/preparing-the-network-for-nlb-2008.aspx
여섯번째이야기 – 시스템설정비교
시스템에 대한 변경을 가하고 어디가 변경이 되었는지 궁금하거나,
또는 난 변경한게 없는데 문제가 생기거나, 바로 이럴 때 사용할 수 있는 유용한 툴이 있습니다.
이름하여 Windows System State Analyzer… 파일시스템, 레지스트리, 서비스, 드라이버 상태를 비교하여 리포트를 생성해 줍니다.
이와 비슷한 또 하나의 유용한 툴은 베타이긴 하지만, Attack Surface Analyzer가 있습니다.
MS 내부 제품 개발팀에서 진작부터 사용하는 툴이라고 합니다.
시스템의 변경으로 인해 발생하는 보안 위험 노출 변경을 점검하는 툴입니다. 아무래도 위에 툴이 더 쓰임새가 있겠지요.
일곱번째이야기 – VDI 와 SCVMM
SCVMM이 일반적으로 가상화 서버 관리 환경에 주로 쓰이지만,
VDI환경에서 클라이언트 VM을 관리하는데도 쓰이기도 합니다. Citrix나 Quest가 바로 이런 경우이죠. 이는 SCVMM의 cmdlet이 잘 구비되어 있어서 일 겁니다.
그러나, 의외로 우리 VDI 시나리오에서는 SCVMM이 역할은 없습니다.
SCVMM의 한계는 400 호스트와 8,000 가상머신입니다만,
VDI환경은 출근, 퇴근 시의 급작스런 부하를 감안해서 조금의 customizing이 필요하고, 제한도 1,000개의 VM당 한 개의 SCVMM을 권고하네요.
https://blogs.technet.com/b/vishwa/archive/2011/02/01/tuning-scvmm-for-vdi-deployments.aspx
여덟번째이야기 – Hyper-V에서IDE와 SCSI 가상디스크콘트롤러
Hyper-V에서 가상 머신의 부팅은 IDE 드라이브에서만 가능합니다.
이는 최초 부팅에서 운영체제가 Legacy 방식으로 인식을 하고 부팅하기 때문입니다.
하지만, 부팅 단계에서 Integration Component를 이용한 Synthetic device로 전환을 하기 때문에 IDE와 SCSI 가상 콘트롤러와의 성능 차이는 실제로 없어집니다.
동적인 디스크 추가도 SCSI에서만 가능하지요.
추가적인 문제는 SCSI 가상 디스크를 여러 개 연결할 때 개별 디스크에 SCSI 가상 콘트롤러를 사용할 것인가, 아니면 하나의 SCSI 가상 콘트롤러에 여러 개의 디스크를 배치할 것인가? 어느 것이 성능이 좋을 것인가?
만약 디스크 IO가 많다면 각각의 가상 SCSI 콘트롤러에 가상 SCSI 하드 디스크를 사용하는 것이 성능에 좋다라네요.
If you use single SCSI controller for all of them, you may see some perf limits as follows:
the queue depth limit set per SCSI controller(adapter): this is good for maximum throughput.
- The thread limit set per SCSI controller(adapter): this is good for leverage multiple LPs when CPU cycles become tight on one.
The performance benefits of splitting into multiple SCSI controller is definitely not marginal.
열번째이야기 – Remote Desktop Load Simulation Tools
VDI 시나리오에서의 테스트 툴은 아니고 SBC 시나리오에서만 가능한 툴인 것 같습니다.
혹시 필요한 상황이 있을지도 몰라 첨부합니다.
열한번째이야기 – 가상환경에서의클러스터지원
어떤 구성을 할 때, 그 구성이 지원이 되는 구성이냐 아니면 단순히 동작이 되는 구성이냐는 큰 차이가 됩니다.
프로덕션에서 운영 중에 문제가 발생했을 때, 지원이 되지 않는 구성으로 사용했을 때, MS가 되었건, 다른 벤더가 되었건 문제 해결에 나서지 않을 것이기 때문입니다.
VMWare의 가상환경, 또는 기타의 다른 가상환경에서 MS 제품을 운영할 때, MS의 원칙은 고객이 가상환경이 아닌 물리적 환경에서도 그 문제가 발생한다는 것을 확인해야 한다는 것입니다. 실질적으로 지원받기가 상당히 어렵다는 얘기겠지요.
특히나 VMWare나 기타의 가상환경에서 Windows의 고가용성 구조를 이용할 때도 해당되는 이야기입니다.
아래는 그 원칙에 대해서 설명한 글입니다.
https://support.microsoft.com/kb/897615
하지만, 가상화 환경에서 단순한 운영체제 수준의 사용은 하드웨어 인증과 같이 가상화 벤더의 인증 프로그램이 있습니다.
보시면 인증된 가상화 벤더가 있을 것입니다. 하지만, 이 경우에도 정상적인 운영체제의 범위를 벗어난 Memory Overcommit이나 가상머신의 동적 이동등은 지원되지 않는다고 명기되어 있네요.
https://windowsservercatalog.com/results.aspx?&bCatID=1521&cpID=0&avc=0&ava=0&avq=0&OR=1&PGS=25
반대로 MS의 가상환경에서 제품을 운영할 때는 MS에서는 일괄적으로 기술 지원을 해 준다는 장점이 있지요. 주요 셀링포인트이기도 합니다.
단, 클러스터(Hyper-V 클러스터, 게스트 클러스터, NLB등)에 대해서 MS의 기술지원을 얻기 위해서 Windows 2008부터는 하드웨어가 인증받은 하드웨어이어야 하고,
클러스터 Validation tool에서 문제가 없음을 고객이 확인해야 합니다.
추가적으로 MSCS(Microsoft Cluster Service)는 Windows 2003때의 용어이고, WSFC(Windows Failover Cluster)는 Windows 2008의 용어입니다.
명확하게 하기 위해서 또한 기능 개선이 많이 생겨서 이름을 바꾼 것 같습니다.
Windows Server 2008에서 개선된 기능은 아래 링크를 참조해 주세요.
열두번째이야기 – Live migration이안되요 …
종종 문제점을 얘기하는데요, 이럴때는 VM을 shut down(saved 아님)하고, 원하는 node로 migration 시킨 후, VM을 시작시켜 보라고 합니다.
그게 되면 인제 Quick migration을 수행해보고요, 이렇게 단계적으로 troubleshooting을 시작하라고 하네요.
또한, 아래 툴을 사용하여 nodes들이 설정이 정확히 되어 있는지 확인하라고 합니다.
https://archive.msdn.microsoft.com/HVRemote
열세번째이야기 – SCVMM 2012와 Server App-V
위의 2가지를 체험할 수 있는 .Net Pet Shop 을 예제로 체험하실 수 있겠네요. 저도 한번 해봐야 겠습니다.
열네번째이야기 – Hyper-V Performance
처음에는 가상화를 하게 되면 얼마나 성능 저하가 있을 까 궁금하게 될 것입니다.
생각보다 가상화로 인한 로드가 높지 않음을 하고 놀라지만 또 멀티 가상 CPU를 사용하면 생각보다 가상화 tax(overload)가 좀 됨에 놀랍니다.
대체적으로 한 개의 가상 CPU를 쓸 때는 5% 정도, 하지만 4개의 가상 CPU를 쓰면 12% 정도까지 감쇄가 된다고 합니다.
이는 소프트웨어적으로 멀티 CPU를 관리해야 하는 한계이고 이는 모든 가상화 벤더가 다 가지고 있습니다.
VMWare도 역시 4개의 가상화 CPU를 사용한 가상화 머신을 사용하면 12% 정도 감쇄가 된다고 합니다. 8개의 CPU를 하면 감쇄가 더 높게 된다고 합니다.
하여간, 가상화 벤더간 성능 차이는 거의 없는 것으로 인식되고 있는 것 같습니다.
Hyper-V R2 SP1 Workload Performance By ESG
열다섯번째이야기 – Ultra thin or Zero client
VDI 환경에서 많이 거론되는 rich client, thin client, ultra thin or zero client 얘기가 많이 있지요.
Rich client는 데스크탑으로 사용하는데 전혀 문제가 없는 client를 얘기하고,
Thin client는 full o/s를 탑재하긴 했지만, 성능이 좀 제한된 client를 얘기하고,
Ultra thin과 zero client는 같은 얘기로, full os spec을 탑재하지 않고, 원격 접근하기 위한 최소한의 기능만을 가지고 있는 client를 얘기합니다.
RemoteFX를 지원하는 zero client는 현재는 소프트웨어 기반으로WES7 (HP, Wyse, DevonIT) 나 Linux (iGEL)를 사용하고 있고,
하드웨어적인 ASIC으로 구현되는 thin client는 대기업에서 올해 하반기에 나올 것으로 예측하고 있습니다.