Windows Copilot Runtime 概述
Windows Copilot Runtime 是一套工具,可让开发人员能够在 Windows 上和 Windows 上创建 AI 体验,包括与操作系统交互的新方法。
使 Windows Copilot Runtime APIs Windows 应用开发人员能够访问操作系统本地运行的 AI 功能,而无需查找、运行或优化自己的机器学习 (ML) 模型。 Windows Copilot RuntimeAPIs目标是在计划于 2025 年 1 月发布的 Windows 应用 SDK 1.7 实验 2 版本中提供可用性。 详细了解Windows 应用 SDK。
皮硅 包括其中 APIs。 Phi 硅是一种由 Microsoft Research 创建的设备上的语言模型,提供了许多在大型语言模型(LLM)中找到的相同功能,但更紧凑、更高效,以便它可以在本地在 Windows 上运行。
Text Recognition或光学字符识别(OCR),用于识别和提取图像中存在的文本,将作为与 Phi 硅对齐的 API 提供。
Recall,AI 辅助搜索功能,使 Windows 设备上的过去活动可搜索,以便你可以选取离开的位置,无论是使用应用、编辑文档还是回复电子邮件。
Studio Effects 增强具有兼容神经处理单元(NPU)的 Windows 设备的相机和音频功能,以应用 AI 驱动的背景效果、眼部接触更正、自动框架、语音焦点、模糊、照明和创意筛选器在设备 NPU 上运行,以保持快速的性能速度。
实时字幕翻译 可帮助 Windows 上的所有人(包括耳聋或听力困难的人)通过查看口述内容的字幕来更好地了解音频,即使音频内容的语言与系统的首选语言不同。
集成自己的 ML 模型
除了由 AI 支持的Windows Copilot RuntimeAPIs模型外,我们还提供了有关如何使用 机器学习 (ML) 模型增强应用的工具和指南。
AI Toolkit在 Visual Studio Code 中,可以使用诸如 PyTorch 或 WebNN 等ONNX Runtime框架集成自己的 ML 模型,并通过 DirectML 访问硬件加速以提高性能和缩放能力。
了解详细信息:
- Windows 应用程序如何利用 ML 模型?
- 在哪里可以找到网页版的开放源代码 ML 模型?
- 如何优化 ML 模型以便在 Windows 应用中使用?
- 如何使用自己的自定义数据微调 ML 模型?
- 如何利用 AI 功能通过硬件加速来提高性能?
负责任的 AI 杂注和示例
使用Windows Copilot Runtime设备上的生成 AI 模型开发负责任的应用,以帮助强制实施本地内容安全功能,例如用于有害内容的设备分类引擎和默认阻止列表。 Microsoft优先支持开发人员使用 Windows 上的本地模型构建安全、可信的 AI 体验。 在创建在 Windows 设备上 运行的应用程序和 AI 辅助功能时,请详细了解负责任的开发实践,这些应用在 Windows 上的“开发负责任的生成 AI 应用程序和功能”指南中运行。
对于有兴趣将 AI 功能或模型与 Windows 应用集成的开发人员的其他资源,包括:
Windows 示例库中的 AI:这些示例将演示如何将 AI 集成到 Windows 应用中。
有关如何将 AI 与 Windows 配合使用的常见问题解答:有关在 Windows 环境中使用 AI 时涉及的术语和概念的常见问题问题,包括“什么是 DirectML?”、“什么是 ONNX?”、“什么是 ORT?”、“什么是 NPU?”、“什么是 SLM?”、“什么是推理?”、“什么是微调?”等等。