Översikt över generativ AI för JavaScript
Upptäck kraften i Generativ AI med JavaScript. Lär dig hur du sömlöst integrerar AI i dina webb-, mobil- eller skrivbordsprogram.
JavaScript med AI?
Det är visserligen sant att Python förmodligen är det bästa språket för att skapa, träna och finjustera AI-modeller, men det är en annan historia när det gäller att skapa program med hjälp av dessa AI-modeller. De flesta AI-modeller används med hjälp av webb-API:er. Det innebär att alla språk som kan göra HTTP-anrop faktiskt kan utföra AI. Eftersom JavaScript är plattformsoberoende och ger sömlös integrering mellan webbläsare och miljöer på serversidan är det ett bra val för dina AI-program.
Rolig och interaktiv kurs
Delta i en fördjupad inlärningsupplevelse, inklusive videor, kodprojekt och en fullständig implementering för att både använda och lära dig mer om generativ AI.
Den här kursen är ett bra sätt för studenter och nya utvecklare att lära sig om AI på ett roligt, interaktivt sätt. För karriärutvecklare kan du fördjupa dig i din uppskalning till AI.
I den här kursen:
- Lär dig AI medan du väcker historiska figurer till liv med generativ AI
- Tillämpa tillgänglighet genom de inbyggda webbläsar-API:erna
- Använda text- och bildgenerering för att integrera AI i appupplevelsen
- Lär dig arkitekturmönster för AI-program
Använd det tillhörande programmet för att prata med historiska tecken
Vad du behöver veta om LLM:er?
Stora språkmodeller (LLM) är djupa neurala nätverk som tränats på stora mängder data för att identifiera och generera text via tokeniserade indata. LLM:er skapas genom att först träna på olika, omfattande datamängder – en dyr process – för att skapa en grundläggande modell, som sedan kan finjusteras med specialiserade data för utdata av högre kvalitet. I praktiken fungerar dessa modeller som avancerade system för automatisk komplettering, oavsett om de finns i en typisk IDE eller via chattgränssnitt som följer detaljerade uppmaningar. De begränsas dock av kontextfönster (vanligtvis några tusen token, även om nyare modeller stöder mycket mer) och kan ärva fördomar från sina träningsdata. Detta understryker vikten av ansvarsfulla AI-metoder, till exempel de som förespråkas av Microsoft, som betonar rättvisa, tillförlitlighet, sekretess och ansvarsskyldighet i AI-utveckling.
Läs mer i kursens LLM-session:
Grundläggande metoder för promptdesign
Prompt engineering omfattar design och optimering av uppmaningar för att förbättra AI-modellutdata. I den här sessionen introduceras konceptet med tekniker som zero-shot-inlärning, där modellen genererar svar med hjälp av sina träningsdata utan exempel, och few-shot-inlärning, där exempel vägleder det önskade resultatet. Talaren visar hur du kan förbättra modellens svar avsevärt genom att lägga till tips – till exempel tankekedja för att uppmuntra till stegvisa resonemang, tydliga instruktioner, kontext och till och med ange utdataformat. När du använder ett scenario med en AI-assistent för Contoso Shoes visas olika modifieringar som tonjusteringar och anpassning för att ytterligare förfina resultaten och bana väg för mer avancerade tekniker som RAG i nästa session.
Läs mer i den tekniska sessionen för kursen:
Förbättra AI-noggrannheten och tillförlitligheten med RAG
Förbättra AI-noggrannheten och tillförlitligheten med hjälp av RAG (Retrieval Augmented Generation). RAG övervinner begränsningar för traditionella stora språkmodeller genom att kombinera en hämtning som hämtar relevanta, up-to-date-dokument från en kunskapsbas med en generator som skapar svar baserat på den specifika kontexten. Den här metoden säkerställer faktiska och transparenta svar genom att grunda utdata i betrodda källor, vilket gör det både kostnadseffektivt och verifierbart. Ett praktiskt exempel med Contosos fastighetsstöd visar hur RAG effektivt kan ge detaljerade, citerade svar med hjälp av företagsdokument för att säkerhetskopiera sina svar.
Läs mer i RAG-sessionen i kursen:
Påskynda DIN AI-utveckling med LangChain.js
Påskynda AI-utvecklingen med hjälp av LangChain.js– ett JavaScript-bibliotek som effektiviserar arbetet med stora språkmodeller. LangChain.js tillhandahåller abstraktioner på hög nivå för att skapa promptmallar, hantera modell- och vektordatabaskomponenter och skapa komplexa arbetsflöden. Ramverket möjliggör snabba prototyper, till exempel att skapa ett API som extraherar och bearbetar YouTube-avskrifter för att besvara frågor, och förenklar övergången från lokal utveckling till produktion i Azure genom att tillåta enkla komponentbyten, som att ersätta lokala modeller och vektorlager med Azure-tjänster.
Läs mer i kursens LangChain.js session:
Köra AI-modeller på din lokala dator med Ollama
Ladda ned och använda lokala AI-modeller med Ollama – ett verktyg med öppen källkod baserat på llama.cpp – för att effektivt köra små språkmodeller som Phi-3. Lokala modeller eliminerar beroendet av molninfrastruktur, möjliggör snabb utveckling med offlinefunktioner och erbjuder kostnadseffektiv testning via en snabb inre utvecklingsloop. Phi-3, som är känt för sin höga prestanda och ansvarsfulla AI-säkerhet, kan köras även på enheter med måttlig specifikation och är tillgängligt via ett OpenAI-kompatibelt API, vilket gör det enkelt att integrera med ditt utvecklingsarbetsflöde.
Läs mer i kursens Ollama-session:
Kom igång med AI kostnadsfritt med Hjälp av Phi-3
Experimentera med AI-modeller med hjälp av Ollama-verktyget och Phi-3-modellen direkt från webbläsaren via en onlinelekplats. Genom att skapa ett GitHub Codespace kan du interagera med en välbekant VS Code-redigerare i webbläsaren, köra kommandon som Ollama run phi3 i terminalen för att chatta med modellen och använda en interaktiv Jupyter-notebook-fil för att köra kodblock som demonstrerar snabb teknik, få skottinlärning och hämtningsförhöjd generering via ett OpenAI-kompatibelt API. Med den här konfigurationen kan du utforska och utveckla dina AI-projekt helt online – inget behov av en snabb GPU eller lokal infrastruktur.
Läs mer i Phi-3-sessionen i kursen:
Introduktion till Azure AI Foundry
Azure AI Foundry är som gatewayen för din resa mot att skapa generativa AI-program med JavaScript. I den här sessionen utforskar vi hur Foundry organiserar resurser via hubbar och projekt, går in i en omfattande modellkatalog med tusentals modeller från olika leverantörer och distribuerar en modell för att testa dem på en interaktiv lekplats. Oavsett om du väljer alternativ för hanterad beräkning eller serverlös API förblir huvudbegreppen konsekventa när du väljer, distribuerar och integrerar modellen i ditt arbetsflöde för utveckling.
Läs mer i Azure AI Foundry-sessionen i kursen:
Skapa generativa AI-appar med Azure Cosmos DB
Läs mer i Azure Cosmos DB-sessionen i kursen:
Azure-verktyg & tjänster för att hantera och lagra AI-appar
Lär dig de viktigaste Azure-verktygen och tjänsterna för att vara värd för och lagra dina AI-appar. Vi utforskar de olika typerna av AI-appar som du kan skapa – från chattappar till hämtning av förhöjda genereringsagenter och autonoma agenter – och diskuterar de verktyg som krävs, inklusive Azure Developer CLI (AZD) för sömlös distribution. Du får lära dig mer om arkitekturalternativ, vägning av serverlösa och containerbaserade metoder och hur du hanterar API:er i produktion med överväganden för säkerhet, skalning och övervakning, vilket säkerställer att dina AI-program är robusta och redo för verklig användning.
Läs mer i azure-verktygs- och tjänstsessionen i kursen:
Strömma generativa AI-utdata med AI Chat Protocol
Utforska generativa AI-utdata för direktuppspelning med hjälp av AI Chat Protocol, vilket förenklar realtidskommunikationen mellan din serverdels-AI-slutsatsdragningstjänst och klientprogram. Vi granskar två strömningsmetoder – inferens i webbläsaren och via en AI-inferenstjänst – där vi diskuterar utmaningarna med exponering av API-nycklar, datasanering och protokollval. Med AI Chat Protocol:s lätta klient och dess synkrona (getCompletion) och asynkrona (getStreamedCompletion)-metoder kan du enkelt integrera säker, effektiv och välstrukturerad direktuppspelning i DIN AI-app, vilket visas i vår serverlösa RAG med LangChain.js exempel.
Läs mer i Streaming-sessionen i kursen: