Windows에서 AI 시작
Windows에서 지능형 AI 환경을 빌드할 수 있는 기능이 빠르게 개발되고 있습니다. Windows Copilot Runtime 코필로트+ PC에서 AI 지원 기능 및 APIs 제공합니다. 이러한 기능은 활성 개발 중이며 항상 백그라운드에서 로컬로 실행됩니다. Windows Copilot Runtime 대해 자세히 알아보세요.
Microsoft는 Windows Copilot Runtime외에도 다양한 AI 서비스, 지원 및 지침을 제공합니다. 비즈니스 요구 사항에 맞게 AI를 안전하게 통합하는 방법을 알아보려면 다음을 비롯한 Windows AI 설명서의 지침을 살펴보세요.
- Windows 앱에서 AI를 어떻게 사용할 수 있나요?
- 클라우드 기반 및 로컬 AI 서비스 중에서 선택
- 쓰다 Q#
- 클라우드 기반 APIs 사용
- 로컬 컴퓨터 사용자 지정 모델 사용
- 책임 있는 AI 관행 사용
- FAQ
Windows 앱에서 AI를 어떻게 사용할 수 있나요?
Windows 앱이 ML(Machine Learning) 모델을 활용하여 AI로 기능 및 사용자 환경을 향상시킬 수 있는 몇 가지 방법은 다음과 같습니다.
- 앱은 생성 AI 모델을 사용하여 복잡한 항목을 이해하여 요약, 다시 작성, 보고 또는 확장할 수 있습니다.
- 앱은 자유 형식 콘텐츠를 앱이 이해할 수 있는 구조화된 형식으로 변환하는 모델을 사용할 수 있습니다.
- 앱은 의미상 콘텐츠를 검색하고 관련 콘텐츠를 빠르게 찾을 수 있는 의미 체계 검색 모델을 사용할 수 있습니다.
- 앱은 자연어 처리 모델을 사용하여 복잡한 자연어 요구 사항을 추론하고 사용자의 요청을 수행하기 위한 작업을 계획하고 실행할 수 있습니다.
- 앱은 이미지 조작 모델을 사용하여 이미지를 지능적으로 수정하거나, 주제를 지우거나 추가하거나, 스케일링하거나, 새 콘텐츠를 생성할 수 있습니다.
- 앱은 예측 진단 모델을 사용하여 문제를 식별하고 예측하고 사용자를 안내하거나 이를 수행할 수 있습니다.
클라우드 기반 및 로컬 AI 서비스 중에서 선택
로컬 모델 또는 클라우드 기반 모델의 두 가지 기본 방법을 통해 AI를 Windows 애플리케이션에 통합할 수 있습니다. 요구 사항에 적합한 옵션을 결정할 때 고려해야 할 몇 가지 측면이 있습니다.
리소스 가용성
- 로컬 디바이스: 모델 실행은 CPU, GPU, NPU, 메모리 및 스토리지 용량을 포함하여 사용 중인 디바이스에서 사용할 수 있는 리소스에 따라 달라집니다. 이는 디바이스에 높은 계산 능력이나 충분한 스토리지가 없는 경우 제한될 수 있습니다. Phi와 같은 SLLM(소형 언어 모델)은 디바이스에서 로컬로 사용하기에 더 이상적입니다. Copilot+ PC는 즉시 사용할 수 있는 AI 기능이 포함된 기본 제공 모델을 Windows Copilot Runtime로 실행합니다.
- Cloud: Azure AI Services같은 Cloud 플랫폼은 확장 가능한 리소스를 제공합니다. 필요한 만큼의 계산 능력이나 스토리지를 사용할 수 있으며 사용하는 것에 대해서만 비용을 지불할 수 있습니다. OpenAI 언어 모델과 같은 LLM(대규모 언어 모델)에는 더 많은 리소스가 필요하지만 더 강력합니다.
데이터 개인 정보 보호 및 보안
- 로컬 디바이스: 데이터가 디바이스에 유지되므로 모델을 로컬로 실행하면 사용자에게 데이터 보안 책임이 있는 보안 및 개인 정보 보호와 관련된 이점을 제공할 수 있습니다.
- Cloud: 클라우드 공급자는 강력한 보안 조치를 제공하지만 데이터를 클라우드로 전송해야 하므로 경우에 따라 비즈니스 또는 앱 서비스 유지 관리자에 대한 데이터 개인 정보 보호 문제가 발생할 수 있습니다.
접근성 및 공동 작업
- 로컬 디바이스: 모델 및 데이터는 수동으로 공유하지 않는 한 디바이스에서만 액세스할 수 있습니다. 이로 인해 모델 데이터에 대한 공동 작업이 더 어려워질 가능성이 있습니다.
- 클라우드: 인터넷 연결을 통해 어디서나 모델 및 데이터에 액세스할 수 있습니다. 이는 공동 작업 시나리오에 더 적합할 수 있습니다.
비용
- 로컬 디바이스: 디바이스 하드웨어에 대한 초기 투자 외에는 추가 비용이 없습니다.
- 클라우드: 클라우드 플랫폼은 종량제 모델에서 작동하지만 사용된 리소스 및 사용 기간에 따라 비용이 누적됩니다.
유지 관리 및 업데이트
- 로컬 디바이스: 사용자는 시스템을 유지 관리하고 업데이트를 설치할 책임이 있습니다.
- 클라우드: 유지 관리, 시스템 업데이트 및 새 기능 업데이트는 클라우드 서비스 공급자에 의해 처리되어 사용자의 유지 관리 오버헤드를 줄입니다.
Windows Copilot Runtime 사용
로컬 AI 모델이 올바른 솔루션인 경우 Windows Copilot Runtime 기능을 사용하여 Copilot+ PC의 사용자를 위한 AI 서비스를 통합할 수 있습니다. Windows 앱에서 활용할 수 있는 이러한 바로 사용 가능한 AI 기능 중 몇 가지는 다음과 같습니다.
- Phi Silica: 즉시 사용할 수 있는 로컬 언어 모델입니다.
- Recall: AI를 사용하여 과거 활동을 검색하는 데 도움이 되는 UserActivity API입니다. 이 API는 Click to Do라는 기능의 지원을 받으며, 이 기능은 Recall이(가) 찾은 콘텐츠(텍스트 또는 이미지)에 작업을 연결하는 데 Phi Silica를 사용합니다.
- AI 이미징: AI(Image Super Resolution)를 사용하여 이미지의 크기를 조정하고 선명하게 하고 이미지 내의 개체를 식별합니다(이미지 구분).
- Windows Studio Effects: 디바이스 카메라 또는 기본 제공 마이크에 AI 효과를 적용합니다.
Windows Copilot Runtime Oveview사용할 수 있는 기능에 대해 자세히 알아봅니다.
클라우드 기반 APIs 사용
클라우드 기반 솔루션이 Windows 앱 시나리오에서 더 잘 작동하는 경우 아래 자습서 중 일부에 관심이 있을 수 있습니다.
많은 APIs 클라우드 기반 모델에 액세스하여 Windows 앱에서 AI 기능을 제공하는 데 사용할 수 있습니다. 이러한 모델은 사용자 지정되거나 즉시 사용할 수 있습니다. 클라우드 기반 모델을 사용하면 리소스 집약적 작업을 클라우드로 위임하여 앱이 간소화된 상태를 유지할 수 있습니다. Microsoft 또는 OpenAI에서 제공하는 클라우드 기반 AI 지원 APIs 추가하는 데 도움이 되는 몇 가지 리소스는 다음과 같습니다.
WinUI 3/Windows 앱 SDK 데스크톱 앱에 OpenAI 채팅 완성 추가: 클라우드 기반 OpenAI ChatGPT 완성 기능을 WinUI 3/Windows 앱 SDK 데스크톱 앱에 통합하는 방법에 대한 자습서입니다.
WinUI 3/Windows 앱 SDK 데스크톱 앱에 DALL-E 추가: 클라우드 기반 OpenAI DALL-E 이미지 생성 기능을 WinUI 3/Windows 앱 SDK 데스크톱 앱에 통합하는 방법에 대한 자습서입니다.
.NET MAUI 및 ChatGPT를 사용하여 추천 앱 만들기: 클라우드 기반 OpenAI ChatGPT 완성 기능을 .NET MAUI 앱에 통합하는 샘플 권장 사항 앱을 만드는 방법에 대한 자습서입니다.
.NET MAUI Windows 데스크톱 앱에 DALL-E 추가: 클라우드 기반 OpenAI DALL-E 이미지 생성 기능을 .NET MAUI 앱에 통합하는 방법에 대한 자습서입니다.
Azure OpenAI 서비스: Windows 앱이 Azure의 추가 보안 및 엔터프라이즈 기능을 사용하여 GPT-4, GPT-4 Turbo with Vision, GPT-3.5-Turbo, DALLE-3 또는 Embeddings 모델 시리즈와 같은 OpenAI 모델에 액세스하려면 이 Azure OpenAI 설명서에서 지침을 찾을 수 있습니다.
Azure AI Services: Azure는 인기 있는 개발 언어로 REST APIs 및 클라이언트 라이브러리 SDK를 통해 사용할 수 있는 전체 AI 서비스 제품군을 제공합니다. 자세한 내용은 각 서비스의 설명서를 참조하세요. 이러한 클라우드 기반 서비스를 통해 개발자와 조직은 기본 제공 및 미리 빌드되고 사용자 지정 가능한 모델을 사용하여 지능적이고 최첨단의 시장 준비 및 책임 있는 애플리케이션을 신속하게 만들 수 있습니다 APIs . 예제 애플리케이션에는 대화, 검색, 모니터링, 번역, 음성, 시각, 의사 결정에 대한 자연어 처리가 포함됩니다.
로컬 컴퓨터에서 사용자 지정 모델 사용
TensorFlow 또는 PyTorch같은 플랫폼에서 고유한 프라이빗 데이터를 사용하여 고유한 모델을 학습할 수 있는 기능이 있는 경우. Visual Studio Code용 ONNX Runtime 및 AI Toolkit 사용하여 디바이스 하드웨어에서 로컬로 실행하여 해당 사용자 지정 모델을 Windows 애플리케이션에 통합할 수 있습니다.
Visual Studio CodeAI Toolkit는 AI 모델을 로컬에서 다운로드하고 실행할 수 있게 해주는 VS Code 확장 프로그램으로, 하드웨어 가속을 통해 성능을 향상시키고 DirectML을 통해 규모를 확장할 수 있습니다. AI Tookit은 다음을 수행할 수도 있습니다.
- 직관적인 플레이그라운드 또는 REST API를 사용하여 애플리케이션에서 모델을 테스트합니다.
- 로컬 또는 클라우드(가상 머신)에서 AI 모델을 미세 조정하여 새 기술을 만들고 응답의 안정성을 개선하며 응답의 톤과 형식을 설정합니다.
- Phi-3 및 Mistral같은 인기 있는 SLLM(작은 언어 모델)을 미세 조정합니다.
- 클라우드 또는 디바이스에서 실행되는 애플리케이션을 사용하여 AI 기능을 배포합니다.
- DirectML을 사용하여 AI 기능을 사용하여 성능 향상을 위해 하드웨어 가속을 활용합니다. DirectML은 Windows 디바이스 하드웨어가 디바이스 GPU 또는 NPU를 사용하여 ML 모델의 성능을 가속화할 수 있도록 하는 하위 수준 API입니다. DirectML을 ONNX Runtime 페어링하는 것은 일반적으로 개발자가 대규모로 사용자에게 하드웨어 가속 AI를 가져오는 가장 간단한 방법입니다. 자세한 정보: DirectML 개요.
또한 이러한 모델 미세 조정 개념 조사하여 데이터에 더 잘 맞게 미리 학습된 모델을 조정할 수도 있습니다.
오픈 소스 모델 찾기
웹에서 오픈 소스 ML 모델을 찾을 수 있습니다. 가장 인기 있는 몇 가지 모델은 다음과 같습니다.
- 허깅페이스: 트랜스포머 라이브러리를 통해 자연어 처리를 위한 10,000개 이상의 미리 학습된 ML 모델을 제공하는 허브입니다. 텍스트 분류, 질문 답변, 요약, 번역, 생성 등에 대한 모델을 찾을 수 있습니다.
- ONNX Model Zoo: 컴퓨터 비전, 자연어 처리, 음성 등과 같은 광범위한 도메인 및 작업을 포함하는 ONNX 형식의 미리 학습된 ML 모델 컬렉션입니다.
- Qualcomm AI Hub: 퀄컴 스냅드래곤 디바이스에 최적화된 다양한 ML 모델 및 도구에 대한 액세스를 제공하는 플랫폼입니다. 모바일 디바이스에서 ML 애플리케이션을 빌드하고 배포하기 위한 프레임워크, 라이브러리 및 SDK뿐만 아니라 이미지, 비디오, 오디오 및 센서 처리를 위한 모델을 찾을 수 있습니다. Qualcomm AI Hub는 개발자와 연구원을 위한 자습서, 가이드 및 커뮤니티 지원도 제공합니다.
- Pytorch Hub: 연구 재현성을 용이하게 하고 새로운 연구를 가능하게 하도록 설계된 미리 학습된 모델 리포지토리입니다. 기계 학습 연구 재현성을 개선하기 위한 기본 구성 요소를 제공하는 간단한 API 및 워크플로입니다. PyTorch Hub는 연구 재현성을 용이하게 하기 위해 특별히 설계된 미리 학습된 모델 리포지토리로 구성됩니다.
- TensorFlow Hub: ML 모델 빌드 및 학습에 널리 사용되는 프레임워크인 TensorFlow에 대해 미리 학습된 ML 모델 및 재사용 가능한 구성 요소의 리포지토리입니다. 이미지, 텍스트, 비디오 및 오디오 처리에 대한 모델과 전송 학습 및 미세 조정을 찾을 수 있습니다.
- Model Zoo: 다양한 프레임워크 및 작업에 가장 적합한 오픈 소스 ML 모델을 큐레이팅하고 순위를 지정하는 플랫폼입니다. 범주, 프레임워크, 라이선스 및 등급별로 모델을 찾아보고 각 모델에 대한 데모, 코드 및 논문을 볼 수 있습니다.
일부 모델 라이브러리는 사용자 지정하고 앱을 통해 배포하기 위한 것이 아니라 다음과 같은 개발 수명 주기의 일부로 실습 탐색 및 검색에 유용한 도구입니다.
- Ollama: Ollama는 얼굴 감지, 감정 분석 또는 음성 인식과 같은 다양한 작업을 위해 즉시 사용할 수 있는 ML 모델의 마켓플레이스입니다. 몇 번의 클릭으로 모델을 찾아보고 테스트하고 앱에 통합할 수 있습니다.
- LM Studio: Lmstudio는 끌어서 놓기 인터페이스를 사용하여 사용자 고유의 데이터에서 사용자 지정 ML 모델을 만들 수 있는 도구입니다. 다양한 ML 알고리즘 중에서 선택하고, 데이터를 전처리 및 시각화하고, 모델을 학습 및 평가할 수 있습니다.
책임 있는 AI 관행 사용
Windows 앱에 AI 기능을 통합할 때마다 Windows 지침에서 책임 있는 생성 AI 애플리케이션 및 기능 개발 따라 매우 권장할 있습니다.
이 지침은 거버넌스 정책, 사례 및 프로세스를 이해하고, 위험을 식별하고, 테스트 방법을 권장하고, 중재자 및 필터와 같은 안전 조치를 활용하고, 안전하고 작업할 책임이 있는 모델을 선택할 때 특정 고려 사항을 설명하는 데 도움이 됩니다.
Windows Copilot Runtime 디바이스 생성 AI 모델을 사용하면 유해한 콘텐츠 및 기본 차단 목록에 대한 디바이스 내 분류 엔진과 같은 로컬 콘텐츠 안전 기능을 적용하는 데 도움이 될 수 있습니다. Microsoft는 Windows에서 로컬 모델을 사용하여 안전하고 신뢰할 수 있는 AI 환경을 구축하기 위해 지원 개발자를 우선 순위로 지정합니다.
추가 리소스
Phi Silica, 작지만 강력한 디바이스 내 SLM(Windows 블로그)
Windows의 AI 샘플 갤러리: AI를 Windows 앱에 통합하는 방법을 보여주는 샘플입니다.
Windows에서 AI를 사용하는 방법에 대한 FAQ: Windows 컨텍스트에서 AI 사용과 관련된 용어 및 개념에 대한 질문과 "DirectML이란?", "ONNX란?", "ORT란?", "NPU란?", "SLM이란?", "추론이란 무엇인가요?", "미세 조정이란?"과 같은 질문을 다룹니다.
ONNX: 다양한 프레임워크 및 플랫폼에서 ML 모델을 나타내고 교환하기 위한 개방형 표준입니다. ONNX 형식으로 미리 학습된 ML 모델을 찾는 경우 ORT(ONNX Runtime) 사용하여 Windows 앱에서 모델을 로드하고 실행할 수 있습니다. ORT를 사용하면 디바이스의 하드웨어 가속 유추 기능에 액세스하고 ML 모델의 성능을 최적화할 수 있습니다. PyTorch 또는 TensorFlow와 같은 다른 형식의 미리 학습된 ML 모델이 있는 경우 Olive같은 모델 최적화 도구를 사용하여 ONNX로 변환할 수 있습니다. Olive 사용에 대한 도움말은 Microsoft Olive(생성 AI 애플리케이션 아키텍처용 Journey Series) SLM 미세 조정을참조하세요. ONNX 모델을 만들고 사용하는 방법에 대한 자습서는 GitHub ONNX 자습서를 참조하세요. Windows 앱에서 ONNX 모델을 사용하는 방법을 보여주는 샘플은 Windows 샘플 갤러리 AI를 참조하세요.
웹앱용 WebNN API: WebIDL 및 JavaScript APIs기반으로 브라우저에서 신경망 하드웨어 가속에 액세스하기 위한 웹 표준입니다. 이를 통해 웹 개발자는 클라우드 서비스 또는 네이티브 라이브러리를 사용하지 않고도 클라이언트 쪽에서 기계 학습 모델을 효율적으로 만들고 실행할 수 있습니다. GitHub에서 WebNN 샘플. Windows 샘플 갤러리에서 의 AI에 ONNX Runtime을 사용하여WebNN 샘플.
PyTorch: Python 및 C++ 인터페이스에서 사용할 수 있는 매우 인기 있는 오픈 소스 딥 러닝 프레임워크입니다. 이는 ML 모델에서 찾을 수 있는 가장 일반적인 형식일 수 있습니다. Windows(C# 또는 C++) 앱 또는 웹앱에서 PyTorch ML 모델을 사용하려는 경우 PyTorch 라이브러리에 대한 .NET 및 C++ 바인딩인 TorchSharp 및 LibTorch사용할 수 있습니다. TorchSharp 및 LibTorch를 사용하면 텐서를 만들고, 로드하고, 조작하고, 신경망을 빌드 및 실행하고, PyTorch 형식을 사용하여 모델을 저장하고 로드할 수 있습니다. 샘플의 경우, TorchSharp 예제, 배포를 위한 TorchScript, PyTorch C++ 예제을 확인하세요. 웹 앱을 살펴보려면 ONNX Runtime를 사용하여 웹 애플리케이션을 빌드하세요. DirectML을 사용하여 PyTorch 모델을 실행하는 방법에 대한 예제는 Windows 샘플 갤러리 AI를 참조하세요.
TensorFlow 다양한 작업에 대한 기계 학습 모델을 빌드하고 배포하는 데 사용되는 기계 학습 및 인공 지능을 위한 또 다른 인기 있는 오픈 소스 소프트웨어 라이브러리입니다.