Partilhar via


Visão geral do Generative AI for JavaScript

Descubra o poder da IA Generativa com JavaScript. Saiba como integrar perfeitamente a IA nas suas aplicações Web, móveis ou de ambiente de trabalho.

JavaScript com IA?

Embora seja verdade que Python é provavelmente a melhor linguagem para criar, treinar e ajustar modelos de IA, é uma história diferente quando se trata de criar aplicativos usando esses modelos de IA. A maioria dos modelos de IA é consumida usando APIs da Web. Isso significa que qualquer linguagem que possa fazer chamadas HTTP pode realmente fazer IA. Como o JavaScript é multiplataforma e fornece integração perfeita entre o navegador e os ambientes do lado do servidor, é uma ótima opção para seus aplicativos de IA.

Curso divertido e interativo

Junte-se a nós para uma experiência de aprendizagem imersiva, incluindo vídeos, projetos de código e uma implementação completa para usar e aprender sobre IA generativa.

Este curso é uma ótima maneira para estudantes e novos desenvolvedores aprenderem sobre IA de uma forma divertida e interativa. Para desenvolvedores profissionais, aprofunde-se no aperfeiçoamento de competências em IA.

Neste curso:

  • Aprenda IA enquanto dá vida a figuras históricas com IA generativa
  • Aplique a acessibilidade com as APIs do navegador integrado
  • Use a geração de texto e imagem para integrar a IA à experiência do aplicativo
  • Aprenda padrões arquitetônicos para aplicativos de IA

Uma imagem gerada por IA de Leonardo Da Vinci usada no aplicativo companheiro para conversar com personagens históricos.

Use o aplicativo complementar para conversar com personagens históricos

O que você precisa saber sobre LLMs?

Large Language Models (LLMs), são redes neurais profundas treinadas em grandes quantidades de dados para reconhecer e gerar texto através de entradas tokenizadas. Os LLMs são construídos inicialmente treinando em conjuntos de dados diversificados e extensos — um processo caro — para criar um modelo fundamental, que pode ser ajustado com dados especializados para obter resultados de maior qualidade. Na prática, esses modelos funcionam como sistemas avançados de preenchimento automático, seja em um IDE típico ou por meio de interfaces de bate-papo que seguem instruções detalhadas. No entanto, eles são limitados por janelas de contexto (normalmente alguns milhares de tokens, embora os modelos mais recentes suportem muito mais) e podem herdar vieses de seus dados de treinamento. Isso ressalta a importância de práticas responsáveis de IA, como as defendidas pela Microsoft, que enfatizam a justiça, a confiabilidade, a privacidade e a responsabilidade no desenvolvimento da IA.

Saiba mais na sessão LLM do curso:

Técnicas essenciais de engenharia imediata

A engenharia de prompts envolve projetar e otimizar prompts para melhorar os resultados dos modelos de IA. Nesta sessão, o conceito é introduzido com técnicas como o zero-shot learning, onde o modelo gera respostas usando os seus dados de treino sem exemplos, e o few-shot learning, onde os exemplos guiam o resultado desejado. O palestrante demonstra como adicionar pistas — como frases em cadeia de pensamento para incentivar o raciocínio passo a passo, instruções claras, contexto e até mesmo especificar formatos de saída — pode melhorar significativamente as respostas do modelo. Quando você usa um cenário com um assistente de IA para Contoso Shoes, várias modificações, como ajustes de tom e personalização, são mostradas para refinar ainda mais os resultados, preparando o terreno para técnicas mais avançadas, como o RAG, na próxima sessão.

Saiba mais na sessão de engenharia prompt do curso:

Melhore a precisão e a confiabilidade da IA com o RAG

Melhore a precisão e a confiabilidade da IA usando a Geração Aumentada de Recuperação (RAG). O RAG supera as limitações dos modelos tradicionais de grandes linguagens combinando um retriever que extrai documentos relevantes e datados de up-tode uma base de conhecimento com um gerador que cria respostas com base nesse contexto específico. Este método garante respostas factuais e transparentes, baseando a saída em fontes confiáveis, tornando-a rentável e verificável. Um exemplo prático com o suporte imobiliário da Contoso demonstra como a RAG pode efetivamente fornecer respostas detalhadas e citadas usando documentos da empresa para fazer backup de suas respostas.

Saiba mais na sessão RAG do curso:

Acelere seu desenvolvimento de IA com LangChain.js

Acelere seu desenvolvimento de IA usando LangChain.js— uma biblioteca JavaScript que simplifica o trabalho com modelos de linguagem grandes. LangChain.js fornece abstrações de alto nível para criar templates de prompts, gerir componentes de modelo e de banco de dados vetoriais e criar fluxos de trabalho complexos. A estrutura permite prototipagem rápida, como a criação de uma API que extrai e processa transcrições do YouTube para responder a perguntas, e simplifica a transição do desenvolvimento local para a produção no Azure, permitindo trocas fáceis de componentes, como a substituição de modelos locais e repositórios de vetores por serviços do Azure.

Saiba mais na sessão LangChain.js do curso:

Execute modelos de IA em sua máquina local com o Ollama

Baixe e use modelos de IA locais com o Ollama, uma ferramenta de código aberto baseada em llama.cpp, para executar com eficiência pequenos modelos de linguagem como o Phi-3. Os modelos locais eliminam a dependência da infraestrutura de nuvem, permitem o desenvolvimento rápido com recursos off-line e oferecem testes econômicos por meio de um rápido ciclo de desenvolvimento interno. O Phi-3, conhecido por seu alto desempenho e segurança responsável de IA, pode ser executado até mesmo em dispositivos de especificações moderadas e é acessível por meio de uma API compatível com OpenAI, facilitando a integração com seu fluxo de trabalho de desenvolvimento.

Saiba mais na sessão Ollama do curso:

Comece a usar a IA gratuitamente usando o Phi-3

Experimente modelos de IA usando a ferramenta Ollama e o modelo Phi-3 diretamente do seu navegador através de um playground online. Ao criar um GitHub Codespace, pode interagir com um editor do VS Code familiar no seu navegador, executar comandos como Ollama run phi3 no terminal para conversar com o modelo e utilizar um notebook Jupyter interativo para executar blocos de código que demonstram engenharia de prompts, aprendizagem com poucos exemplos e geração aumentada por recuperação por meio de uma API compatível com OpenAI. Essa configuração permite que você explore e desenvolva seus projetos de IA totalmente on-line, sem a necessidade de uma GPU rápida ou infraestrutura local.

Saiba mais na sessão Phi-3 do curso:

Introdução ao Azure AI Foundry

O Azure AI Foundry é como a porta de entrada para a sua jornada na criação de aplicativos de IA generativos com JavaScript. Nesta sessão, exploraremos como o Foundry organiza recursos por meio de hubs e projetos, mergulharemos em um rico catálogo de modelos com milhares de modelos de vários provedores e implantaremos um modelo para testá-lo em um playground interativo. Quer você escolha opções de computação gerenciada ou API sem servidor, os conceitos principais permanecem consistentes à medida que você seleciona, implanta e integra o modelo em seu fluxo de trabalho de desenvolvimento.

Saiba mais na sessão do Azure AI Foundry do curso:

Criando aplicativos de IA generativa com o Azure Cosmos DB

Saiba mais na sessão de Azure Cosmos DB do curso.

Ferramentas & serviços do Azure para hospedar e armazenar aplicativos de IA

Conheça as ferramentas e serviços essenciais do Azure para hospedar e armazenar seus aplicativos de IA. Exploraremos os diferentes tipos de aplicativos de IA que você pode criar, de aplicativos de bate-papo a geração aumentada de recuperação e agentes autônomos, e discutiremos as ferramentas necessárias, incluindo a CLI do Desenvolvedor do Azure (AZD) para implantação perfeita. Você aprenderá sobre opções de arquitetura, pesando abordagens sem servidor versus abordagens baseadas em contêiner e como gerenciar APIs em produção com considerações de segurança, dimensionamento e monitoramento, garantindo que seus aplicativos de IA sejam robustos e prontos para uso no mundo real.

Saiba mais na sessão de ferramentas e serviços do Azure do curso:

Streaming de saída de IA generativa com o AI Chat Protocol

Explore as saídas de IA generativa por streaming usando o AI Chat Protocol, que simplifica a comunicação em tempo real entre o seu serviço de inferência de IA no back-end e as aplicações cliente. Analisaremos duas abordagens de streaming — inferência no navegador e por meio de um servidor de inferência de IA — discutindo os desafios da exposição de chaves de API, higienização de dados e seleção de protocolos. Com o cliente leve do AI Chat Protocol e seus métodos síncronos (getCompletion) e assíncronos (getStreamedCompletion), você pode facilmente integrar streaming seguro, eficiente e bem estruturado em seu aplicativo de IA, como demonstrado em nosso RAG sem servidor com LangChain.js exemplo.

Saiba mais na sessão Streaming do curso: