适用于 JavaScript 的生成 AI 概述
使用 JavaScript 发现生成 AI 的强大功能。 了解如何将 AI 无缝集成到 Web、移动或桌面应用程序中。
使用 AI 的 JavaScript?
虽然 Python 可能是创建、训练和微调 AI 模型的最佳语言,但当使用这些 AI 模型创建应用程序时,情况会有所不同。 大多数 AI 模型都是通过 web API 使用的。 这意味着任何可以进行 HTTP 调用的语言实际上都可以执行 AI。 由于 JavaScript 是跨平台的,它在浏览器和服务器端环境之间提供无缝集成,因此对于 AI 应用程序来说,这是一个不错的选择。
有趣和交互式课程
加入我们,获得沉浸式学习体验,包括视频、代码项目和完整实现,以使用和了解生成 AI。
本课程是学生和新开发人员以有趣的交互式方式了解 AI 的好方法。 对于职业开发人员,要想提升 AI 技能,就要深入研究。
在本课程中:
- 了解 AI,同时通过生成式 AI 赋予历史人物生命
- 使用内置的浏览器 API 应用无障碍功能
- 使用文本和图像生成将 AI 集成到应用体验中
- 了解 AI 应用程序的体系结构模式
关于 LLM 需要了解哪些信息?
大型语言模型(LLM)是针对大量数据训练的深度神经网络,通过标记化输入识别和生成文本。 LLM 最初通过基于各种、广泛的数据集(一个昂贵的过程)进行训练来构建,以创建一个基本模型,然后可以使用专用数据对其进行微调,以便获得更高质量的输出。 实际上,无论是在典型的 IDE 中还是通过遵循详细提示的聊天接口,这些模型都像高级自动完成系统一样运行。 但是,它们受上下文长度的限制(通常是几千个标记,尽管较新的模型支持更多的标记),并且可能会从训练数据继承偏见。 这突显了负责任的 AI 实践的重要性,例如Microsoft所倡导的实践,这些做法强调 AI 开发中的公平性、可靠性、隐私性和责任性。
在课程的 LLM 会话中了解更多信息:
基本提示词设计技术
提示工程涉及设计和优化提示以增强 AI 模型输出。 在此会话中,引入的概念包括像零样本学习这样的技术,在这种情况下,模型无需示例,直接使用其训练数据生成响应;以及少样本学习,其中一些示例用于指导所需结果。 演讲者演示了如何添加提示(如思考链短语)以鼓励分步推理、明确说明、上下文甚至指定输出格式)可以显著改善模型的响应。 当您将方案与 Contoso Shoes 的 AI 助手结合使用时,将展示诸如音调调整和个性化等各种修改,以进一步优化结果,为下一会话中的 RAG 等更高级技术打下基础。
在课程的提示词工程会话中了解更多信息:
使用 RAG 提高 AI 准确性和可靠性
使用检索扩充生成(RAG)提高 AI 准确性和可靠性。 RAG 通过将从知识库拉取相关 up-to日期文档的检索器与基于该特定上下文处理答案的生成器相结合,从而克服了传统大型语言模型的限制。 此方法通过在受信任的源中建立输出来确保事实性的透明响应,使其既经济高效又可验证。 Contoso 房地产支持的一个实际示例展示了 RAG 如何通过使用公司文件来有效地提供详细且有引用依据的答案。
在课程的 RAG 会话中了解更多信息:
使用 LangChain.js 加快 AI 开发
使用 LangChain.js加速 AI 开发 ,这是一个简化使用大型语言模型的 JavaScript 库。 LangChain.js 提供用于生成提示模板、管理模型和矢量数据库组件以及创建复杂工作流的高级抽象。 该框架支持快速原型制作,例如生成一个 API 来提取和处理 YouTube 脚本来回答问题,并通过允许简单的组件交换(例如将本地模型和矢量存储替换为 Azure 服务)来简化从本地开发到生产转换的过程。
在课程的 LangChain.js 会话中了解更多信息:
使用 Ollama 在本地计算机上运行 AI 模型
通过基于 llama.cpp 的开源工具 Ollama 下载并使用本地 AI 模型,以高效运行 Phi-3 等小型语言模型。 本地模型消除了对云基础结构的依赖,利用脱机功能实现快速开发,并通过快速内部开发循环提供经济高效的测试。 Phi-3 以其高性能和负责任的 AI 安全性而闻名,即使在中等规格设备上也能运行,并且可通过与 OpenAI 兼容的 API 进行访问,因此可以轻松与开发工作流集成。
在课程的 Ollama 会话中了解更多信息:
使用 Phi-3 免费开始使用 AI
使用 Ollama 工具和 Phi-3 模型在浏览器中通过在线实验平台直接体验 AI 模型。 通过创建 GitHub Codespace,你可以在浏览器中与熟悉的 VS Code 编辑器进行交互,在终端运行 Ollama run phi3 等命令与模型聊天,并利用交互式 Jupyter Notebook 执行代码块,通过 OpenAI 兼容的 API 演示提示工程、少量学习和检索增强生成。 通过此设置,可以完全联机浏览和开发 AI 项目,而无需快速 GPU 或本地基础结构。
在课程的 Phi-3 会议中了解更多信息:
Azure AI Foundry 简介
Azure AI Foundry 就像是您使用 JavaScript 构建生成式 AI 应用之旅的入口。 在此会话中,我们将探讨 Foundry 如何通过中心和项目组织资源,深入了解一个丰富的模型目录,其中包含来自各种提供程序的数千个模型,并部署模型以在交互式场中测试它。 无论是选择托管计算还是无服务器 API 选项,在选择、部署模型并将模型集成到开发工作流时,核心概念都保持一致。
在课程的 Azure AI Foundry 会话中了解更多信息:
使用 Azure Cosmos DB 构建生成式AI应用
了解更多信息,请观看课程 中的Azure Cosmos DB 课程。
Azure 工具 & 用于托管和存储 AI 应用的服务
了解用于托管和存储 AI 应用的基本 Azure 工具和服务。 我们将探讨可以构建的不同类型的 AI 应用(从聊天应用到检索扩充的生成和自治代理),并讨论所需的工具,包括用于无缝部署的 Azure 开发人员 CLI (AZD)。 你将了解体系结构选项、权衡无服务器与基于容器的方法,以及如何在生产中管理 API,并考虑安全性、缩放和监视,确保 AI 应用程序可靠且可供实际使用。
在课程 的Azure 工具和服务会话中了解更多详细信息。
利用 AI 聊天协议流式处理生成式 AI 输出
使用 AI 聊天协议探索流式处理 AI 输出,该协议简化了后端 AI 推理服务和客户端应用程序之间的实时通信。 我们将查看两种流式处理方法(在浏览器中推理和通过 AI 推理服务器)讨论 API 密钥公开、数据清理和协议选择的挑战。 借助 AI 聊天协议的轻量级客户端及其同步(getCompletion)和异步(getStreamedCompletion)方法,您可以轻松地将安全、高效且结构清晰的流集成到您的 AI 应用中,正如我们的无服务器 RAG 与 LangChain.js 示例所示。
在课程的流式处理会话中了解更多信息: