Поделиться через


Обзор генеративного ИИ для JavaScript

Узнайте о возможности создания ИИ с помощью JavaScript. Узнайте, как легко интегрировать ИИ в веб-приложения, мобильные приложения или классические приложения.

JavaScript с искусственным интеллектом?

Хотя это правда, что Python, вероятно, лучший язык для создания, обучения и точной настройки моделей ИИ, это другая история, когда речь идет о создании приложений с помощью этих моделей ИИ. Большинство моделей искусственного интеллекта используются с помощью веб-API. Это означает, что любой язык, который может выполнять HTTP-вызовы, фактически может выполнять ИИ. Так как JavaScript является кроссплатформенным и обеспечивает простую интеграцию между браузерами и серверными средами, это отличный выбор для приложений ИИ.

Веселый и интерактивный курс

Присоединяйтесь к нам для иммерсивного обучения, включая видео, проекты кода и полную реализацию для использования и изучения создания искусственного интеллекта.

Этот курс является отличным способом для студентов и новых разработчиков, чтобы узнать об ИИ в веселом, интерактивном режиме. Для разработчиков, стремящихся развивать свою карьеру, углубите свои знания в области искусственного интеллекта.

В этом курсе:

  • Учите ИИ, оживляя исторические личности с помощью генеративного ИИ.
  • Применение функций доступности с помощью встроенных программных интерфейсов браузера
  • Использование создания текста и изображений для интеграции искусственного интеллекта в интерфейс приложения
  • Изучение архитектурных шаблонов для приложений ИИ

созданный искусственным интеллектом образ Леонардо Да Винчи, используемый в приложении-компаньоне для общения с историческими персонажами.

Используйте приложение-компаньон, чтобы общаться с историческими персонажами

Что нужно знать о LLM?

Большие языковые модели (LLMs) — это глубокие нейронные сети, обученные на огромных объемах данных для распознавания и создания текста с помощью маркеризованных входных данных. LLM создаются путем первоначального обучения на различных, обширных наборах данных — дорогостоящих процессах— для создания базовой модели, которая затем может быть точно настроена с помощью специализированных данных для повышения качества выходных данных. На практике эти модели работают как расширенные системы автозаполнения, будь то в типичной интегрированной среде разработки или через интерфейсы чата, которые следуют подробным запросам. Однако они ограничены размерами контекстных окон (обычно несколько тысяч токенов, хотя более новые модели поддерживают гораздо больше) и могут наследовать предвзятость из своих обучающих данных. Это указывает на важность ответственной практики искусственного интеллекта, например, такой, которую предлагает корпорация Майкрософт, подчеркивающая справедливость, надежность, конфиденциальность и подотчетность в разработке ИИ.

Дополнительную информацию можно узнать в сессии LLM курса.

Основные техники инженерии подсказок

Проектирование запросов включает разработку и оптимизацию подсказок для улучшения выходных данных моделей ИИ. В этой сессии концепция представлена с такими методами, как обучение без использования примеров, где модель создает ответы на основе своих обучающих данных без конкретных примеров, и обучение с малым количеством примеров, где примеры направляют к желаемому результату. Докладчик демонстрирует, как добавлять подсказки, такие как цепочка мысленных фраз для поощрения пошаговых причин, четких инструкций, контекста и даже указания форматов выходных данных, могут значительно улучшить ответы модели. При использовании сценария с помощником по искусственному интеллекту для Contoso Shoes отображаются различные изменения, такие как корректировка тонов и персонализация, чтобы дополнительно уточнить результаты, подготавливая тем самым почву для более сложных методов, таких как RAG, которые будут рассмотрены в следующем сеансе.

Дополнительные сведения см. в сеансе технической инженерии курса:

Повышение точности ИИ и надежности с помощью RAG

Улучшите точность и надежность ИИ с помощью генерации с дополнением извлечения (RAG). RAG преодолевает ограничения традиционных крупных языковых моделей путем объединения ретривера, который извлекает релевантные документы up-to-date из базы знаний с генератором, который выполняет ответы на основе этого конкретного контекста. Этот метод обеспечивает достоверные и прозрачные ответы, основывая информацию на доверенных источниках, что делает его экономически эффективным и проверяемым. Практический пример поддержки недвижимости Contoso демонстрирует, как RAG может эффективно предоставлять подробные, подкрепленные ссылками ответы, используя корпоративные документы для подкрепления своих ответов.

Дополнительные сведения см. в сеансе RAG курса.

Ускорение разработки ИИ с помощью LangChain.js

Ускорьте разработку ИИ с помощью LangChain.js— библиотеки JavaScript, которая упрощает работу с большими языковыми моделями. LangChain.js предоставляет высокоуровневые абстракции для создания шаблонов запросов, управления компонентами модели и векторной базы данных и создания сложных рабочих процессов. Платформа позволяет быстро создавать прототипы, например создавать API, которые извлекают и обрабатывают расшифровки YouTube для ответа на вопросы и упрощают переход от локальной разработки к рабочей среде в Azure, позволяя легко переключаться на компоненты, например заменять локальные модели и векторные хранилища с помощью служб Azure.

Дополнительные сведения см. в LangChain.js сессии курса:

Запуск моделей ИИ на локальном компьютере с помощью Ollama

Скачайте и используйте локальные модели искусственного интеллекта с помощью Ollama — средства с открытым кодом на основе llama.cpp— для эффективного запуска небольших языковых моделей, таких как Phi-3. Локальные модели устраняют зависимость от облачной инфраструктуры, обеспечивают быструю разработку с автономными возможностями и предлагают экономичное тестирование с помощью быстрого внутреннего цикла разработки. Phi-3, отмеченный своей высокой производительностью и ответственной безопасностью ИИ, может работать даже на устройствах с умеренными спецификациями и доступен через API, совместимый с OpenAI, что упрощает интеграцию с рабочим процессом разработки.

Дополнительные сведения см. в курсе , в сессииOllama.

Начало работы с ИИ бесплатно с помощью Phi-3

Экспериментируйте с моделями ИИ с помощью средства Ollama и модели Phi-3 непосредственно из браузера через онлайн-площадку. Создав GitHub Codespace, вы можете взаимодействовать с привычным редактором VS Code в браузере, выполнять команды, такие как Ollama run phi3 в терминале, чтобы общаться с моделью, и использовать интерактивную записную книжку Jupyter для выполнения блоков кода, демонстрирующих инженеринг запросов, обучение на нескольких примерах и генерацию с дополнением за счет извлечения данных через API, совместимый с OpenAI. Эта настройка позволяет изучать и разрабатывать проекты искусственного интеллекта полностью в интернете— не требуется быстрой gpu или локальной инфраструктуры.

Дополнительные сведения см. в сессии курса Phi-3.

Общие сведения об Azure AI Foundry

Azure AI Foundry похож на шлюз для создания создаваемых приложений ИИ с помощью JavaScript. В этом сеансе мы рассмотрим, как Foundry упорядочивает ресурсы через центры и проекты, изучите широкий каталог моделей с тысячами моделей от различных поставщиков и развернем модель для тестирования на интерактивной площадке. Независимо от того, выбираете ли вы параметры управляемого вычислительного или бессерверного API, основные понятия остаются согласованными при выборе, развертывании и интеграции модели в рабочий процесс разработки.

Дополнительные сведения см. в сессии Azure AI Foundry учебного курса:

Разработка генеративных приложений ИИ с помощью Azure Cosmos DB

Дополнительные сведения см. в сессии Azure Cosmos DB курса .

Средства Azure & службы для размещения и хранения приложений ИИ

Узнайте о основных средствах и службах Azure для размещения и хранения приложений ИИ. Мы рассмотрим различные типы приложений искусственного интеллекта, которые можно создавать — от чат-приложений до генерации текста с помощью поисковых данных и автономных агентов — а также обсудим необходимые инструменты, включая интерфейс командной строки разработчика Azure (AZD) для беспрепятственного развертывания. Вы узнаете о вариантах архитектуры, взвешивании бессерверных и контейнерных подходах, а также о том, как управлять API в рабочей среде с учетом безопасности, масштабирования и мониторинга, обеспечивая надежность и готовность приложений ИИ к реальному использованию.

Дополнительные сведения см. в сеансе инструментов и служб Azure курса .

Потоковая трансляция результатов генеративного ИИ с помощью протокола чата ИИ

Изучите выходные данные генеративного ИИ в режиме реального времени, используя протокол чата ИИ, который упрощает обмен данными между серверной службой анализа ИИ и клиентскими приложениями. Мы рассмотрим два подхода потоковой передачи — инференция в браузере и с помощью сервера инференции искусственного интеллекта — и обсудим проблемы, связанные с воздействием ключа API, очисткой данных и выбором протокола. С помощью легковесного клиента протокола AI Chat и его методов синхронного (getCompletion) и асинхронного (getStreamedCompletion) можно легко интегрировать безопасную, эффективную и хорошо структурированную потоковую передачу в приложение на ИИ, как показано в нашем примере создания безсерверной RAG с образом LangChain.js.

Подробнее в стриминговой сессии курса.